データ解析力で日本の医療を支援する。
答える人:佐藤 真一教授(国立情報学研究所)
さとう・しんいち。1987年東京大学卒、工学博士(東京大学)。専門は、画像・映像解析に基づく検索・知識発見。1995〜1997年米国カーネギーメロン大客員研究員としてInformedia映像ディジタルライブラリの研究に従事。2000年国立情報学研究所助教授、2004年より現職。
答える人:伊藤 陽一教授(統計数理研究所)
いとう・よういち。東京大学卒、保健学博士(東京大学)。専門は生物統計学。ゲノム解析、臨床試験のデザインに関わる統計解析コンサルティングの専門家。2009年より新薬を審査する医薬品医療機器総合機構(PMDA)の専門委員を務める。近年は臨床試験データの管理改善を効率の観点から評価するという新しい研究領域に挑む。
答える人:野間 久史准教授(統計数理研究所)
のま・ひさし。九州大学卒。博士(社会健康医学)。専門は医療統計学・公衆衛生学。京都大学大学院医学研究科で医療統計学を専攻した後、統計数理研究所助教等を経て現職。「専門の医療統計学を通じ医学・医療へ貢献したい」と研究に教育に奔走する。
ITのエキスパートがつくるチーム
東京・一ツ橋にあるNIIは、日本で唯一ITだけを総合的に研究する研究機関だ。2017年から日本医療研究開発機構(AMED)「医療のデジタル革命実現プロジェクト」のパートナーとなり、日本消化器内視鏡学会,日本病理学会,日本医学放射線学会、日本眼科学会の4つの学会とともに医療健康分野のICT基盤をつくり、画像解析、深層学習、AI(人工知能)などを開発する課題に取り組む。
このミッションを担う医療ビッグデータ研究センターには、NIIだけでなく東大、名大、九大等から選りすぐりの画像解析研究者が参加する。メンバーは、若いポスドク研究員などを含めて約10名。ただし、そのほとんどが医療画像解析の経験は浅いという。「私は画像解析や深層学習の研究者で、これまで医療はやってこなかった」と言うのは、センター長の佐藤真一教授だ。「けれども、ある意味、できる。つまり、画像を見て僕らは判断できないのだけれど、僕らがトレーニングしたAIの一種であるニューラルネットワークは判断するんです」。
これまで医療画像の解析に取り組んでいた科学者たちは、自分の中にある医学の知識をいかに画像処理に反映させるかを目指してプログラミングしていた。「潮目が変わったのは、機械に大量の学習データを食わせれば何らかの結果が出てくるようになったから」と佐藤教授は言う。「共同研究がスタートしてまだ1年と数カ月ですが、特に眼底画像を使った糖尿病や緑内障の診断では、ほとんど工夫をしていないような画像解析の人工ニューラルネットワークで、既に高精度な識別ができています。ところがこれ、医師が行うと難しい診断なのだそうです」。
画像解析・深層学習の「第三の波」
ところで佐藤教授の言う潮目の変化とは、いつ頃なのだろうか?「2012年に画期的な機械学習アルゴリズムが現れ、神経細胞(ニューロン)網をシミュレートして学習や判断を行う手法により、これまでをはるかに凌駕する性能を達成できたことが大きいですね」。歴史的に振り返ると、人工ニューラルネットワークの研究はこれまで大きく3段階で発達してきたと佐藤教授は言う。「第一の波は、脳の神経回路を模したニューラルネットワークの登場です。事実上1層しかないネットワークで、任意の線形関数が学習できることが証明され、入力さえ与えれば学習できる枠組みができました。第二の波がいわゆるニューロファジーです。深層学習は2〜3層と少し複雑になりました。そして先ほどの2012年に、コンピュータの性能向上やビッグデータを背景に大量データを使って学習しようという第三の波が到来したのです」。
また、その年トロント大のヒントン教授らが発表した画像を千種類の物体に見分ける論文は、どのくらいの量のデータを使って機械が学習し、どの程度の認識精度で見分けられるのか、画像認識というゲームの中でひとつの大きな到達点となった。「これまではどの時点で機械が何をどのように見るべきかは人間によって与えられていたのですが、ニューラルネットワークはすべて白紙で、全部学習によって(機械が自らが)決めていくところに大きな特徴があります。たとえば千種類の物体の画像をとにかく大量に入れて学習させると、未知の画像が来た時に非常に精度よく判断してくれる。残念ながら、機械が何を勉強したのかはわからないのですが、人間が昔一生懸命考えてやっていたことを簡単に陵駕する性能が出てくるのです」。当時ヒントン教授らが用いた深層学習は8層だったが、現在では「100、200といった層が用いられるのが普通」だと言う。
深層学習は「理論解析が30年前から本質的に進んでいない」という問題はあるものの、専門家の間では人工ニューラルネットワークに何がどこまでできるのかが経験的に知られるようになり、特に近年、画像領域において圧倒的に高い性能が達成されるようになってきた。NII医療ビッグデータ研究センターでは、時宜を得てこの画像認識精度を医療ビッグデータのデータ解析に使おうという狙いがある。
医師たちをいかに支援するか?
現在、佐藤教授らが取り組む医療画像では、それぞれの画像を医師がどう判断したかという「正解」のデータ作りも進められている。しかし「例えばイヌやネコなら誰でも識別できますが、医療画像はお医者様でないと判断できないので、お金に代えられない高価さがある」。そこで「能動学習のアルゴリズムを活用し、どうしても機械がここは医師の判断を仰ぎたいというポイントを絞って、要所要所で正解を付けてもらう」という方法によって、医師の労力を数分の1にする設計を進めているという。「お医者様の忙しさを解消しようとしているのに、データを作るにはその方々にご協力いただかなければならない。それが今、最も悩みの種ですね」。
しかし近い将来、画像解析によって医師を支援するシステムが回るようになれば「見落としを少なくしたり、全く独立な意見としてセカンドオピニオンを提示したり、また簡単な症例は機械が判断して医師たちは本当に難しい症例の診断に注力したりといった支援が考えられます」と佐藤教授は言う。「もしも経験を積んだ医師とほぼ同じような判断をする人工知能アルゴリズムができたら、離島等の必要な場所へ配布できるのも夢ですね。しかもプログラムなので100でも1万でもコピーできます」。
医学部にデータサイエンティストを育成する
一方、来る2019年に75周年を迎える歴史ある統計数理研究所(ISM)には、このほど医療健康データ科学研究センターが発足した。医療統計のエキスパートを結集して、来る医療・健康データの利活用時代に備え、さまざまなデータ解析基盤の整備を目指す。「日本全国に約60の大学医学部がありますが、これらの学部で決定的に不足しているデータサイエンティストの養成や、医療統計のリテラシー向上のための教育をミッションとしているところも、われわれのセンターの大きな特徴です」と伊藤センター長は言う。
年間4本の医療統計教育コース、5つの公開講座等が既にスタートしている他、2018年5月28日には、当センターの設立記念シンポジウムも開催される。シンポジウムを担当する野間副センター長は、「前回の公開イベントでは、思いがけず高名な医学の先生にお越しいただき、医療・健康分野における統計への関心の高まりを肌で感じた」という。また発足に先立ち、統計教育推進のための「健康科学研究ネットワーク」形成を呼びかけたところ、全国の医大、病院など約70の機関が「わずかな時間で集まった」という。
新薬の臨床試験を統計的に厳密に評価する
もともとライフサイエンスの分野は、統計とは切っても切れない関係にある。「生物統計の重要性は広く認知されていますし、新薬を開発する時に、その有効性や安全性をきちんと評価する臨床試験は、統計が不可欠となる典型例」と野間副センター長。その臨床試験評価のエキスパートとして知られる伊藤センター長は、実験を設計する統計コンサルタントとしても長いキャリアを持つ。
「ヒトは生物学的に非常に複雑なシステムを持っているので、マウス、イヌ、人間にかなり近いサルなどで実験して安全だという結果が得られていた薬剤でも、ヒトに投与したらまったく予想外の副作用が起こったという事例が、歴史上にいくつかあります。新薬が本当に治療に効果があるのか、ヒトに投与して安全なのか、実験や臨床試験から得られるデータの不確実性を統計学的に厳密に評価した上で、科学的評価を行わなくてはなりません。ここに統計の技術が要求されるのです」(伊藤センター長)。
「臨床実験のデザインも日進月歩で新しい方法が生まれていますから、キャッチアップしながら新しい方法論を生み出していかなければなりません。この点はビッグデータの解析とは対照的で完全に計画し尽くして証明する作業であり、また極めて専門性の高い分野になっています」(伊藤センター長)。
健康リスクとなる環境要因どう測るのか
もうひとつ、集団を対象として疾病の発生原因や予防などを研究する疫学(epidemiology)という分野でも、統計が大きな力を発揮する。疫学は19世紀イギリスにさかのぼり、コレラ等の感染症の予防や原因究明に関する学問として始まったが、現在社会の疾病構造の多様化とも関連して、むしろ医療と健康全般を対象とした研究へと変化してきた。大学院時代からこの研究に取り組んできた野間副センター長は、「人を対象とした観察研究に基づいて、たとえば喫煙、環境ホルモン、大気汚染への曝露といった要因の健康への影響を科学的に計るもの」と解説する。「しかし実験とは違って、健康に有害な要因はコントロールすることができません。このような対象からどうデータを取るのか、他の要因が関連してはいないか、本当に因果関係があるのか、正確に推定するための統計的手法を構築します」。
中でも専門家たちが統計的な視点を注ぐのは、真実と測定されたデータの間にあるバイアス(偏り)だ。「これを評価するのが非常に難しい」と野間副センター長。「問題設定上、100%正確な評価はまず不可能な領域なんです。でも公衆衛生的には何か手を打たなければいけない。そこで何が有効かを判断するにも、実はまた統計が必要なんですね」。
伊藤センター長は「疫学のほうが歴史が長いが、近年、その方法論が非常に精緻化されてきている」と見る。「私の専門である臨床試験とは本来出自が異なるのですが、疫学の中にある統計と臨床試験をはじめとする生物統計が出会って、今、方法論が活発に共進化している状況にあると考えています」。
統計手法を基礎研究として融合的に発展させる
伊藤センター長の言う方法論的な展開は、センターが担う6つの研究プロジェクトの1つである「臨床研究・臨床試験とエビデンス統合の方法論プロジェクト」で進められている。ちなみに、このプロジェクトの具体的なテーマの1つに、2015年に米国でオバマ前大統領が一般教書演説で発表した精密医療(precision medicine)の実現をめざしたビッグデータ解析がある。野間副センター長は言う。「例えばサリドマイドは、1950〜60年代に世界的な薬害を引き起こした物質ですが、血管新生を阻害する点に逆に着目して、1999年に米国で多発性骨髄腫へのエビデンスが認められ、2008年には日本でも抗がん剤として承認されるなど、世界的に再評価が進んでいます。新しいデータサイエンスの手法を用いた解析を通して、その薬効にどうやら個人差があるらしいことがわかってきました」。
「患者さんから切除したがん細胞から、遺伝情報や分子レベルの情報を網羅的に測定すると、数百万次元以上の規模の大規模データが得られます。これらをオミックスデータといい、この10、20年の間に、その測定技術は非常に発達してきました。このデータと薬効の関連を新しい統計手法で分析すると、サリドマイドを投与した患者グループは、そうでないグループと比べて予後がいい。また特定の分子の発現パターンがある患者さんとそうでない患者さんでは薬の効き目が違う……といったことが詳細に評価できます」(野間副センター長)。
この他、「機械学習の技術を遺伝子データの探索的な解析等に使ったり、古典的な統計の理論的な進展をさらに発展させるなど、ビッグデータ利活用の広がり呼応したデータ解析の基礎研究を積極的にやっていきます」と、伊藤センター長。「私たちにとって、今ある集団を完全に記述するモデルよりも、新しい患者さんをうまく予測できるほうがいいモデル。これを構築することこそ喫緊の課題であり、また面白いテーマと言えます」。
(聞き手:池谷瑠絵 写真:飯島雄二 公開日:2018/05/10)