AIへのタスクシフトで働き方を変える
人から人へのタスクシフト(業務の移管)はもう限界。AIを用いた診療時記録の自動入力化により記録に費やされる労力を軽減し、手入力せずアイコンタクトできるインフォームドコンセント(十分な情報を得た上での合意)が実現できれば、もっと人間的な診療が可能になる。AIの実用化で、患者にも職員にも優しい病院を目指す。
■人からAIへのタスクシフト
——診療記録の自動入力をテーマに選んだのは、どのような理由からですか。
長堀 現在の日本では、医療需要が高まり、医療の質の向上も求められているというのに、医療費は増やせない状況にあります。さらに医療現場は忙し過ぎて労働時間が長く、働き方改革も求められています。まさに難題だらけなのです。厚生労働省はタスクシフトで解決できるといいますが、労働人口の不足を考えれば、人から人へのタスクシフトには限界があります。そこで、人からAIにタスクシフトできないかと考えていました。これまで人間がやってきた仕事を、AIに手伝ってもらえばいいのではないかと考えたわけです。音声による診療記録の自動入力を選んだのは、病院の業務では、記録することに膨大な労力が費やされているというデータがあったからです。
——そのデータというのは?
長堀 当病院で行った業務量調査の結果です。740床の当病院の全職員数は1500人で、最も人数が多い職種は看護師で750人います。そのうちの600人が病棟看護師です。そこで、業務のボリュームが最も大きい病棟看護師について、業務量を調べてみたのです。その結果、業務時間の4割をノンタッチタイム、つまり患者さんに接していない時間が占めていて、ノンタッチタイムの75%は記録のために使われていることが分かりました。つまり、病棟看護師の仕事の約30%は記録することに費やされていたのです。時間外労働になると、記録のために費やされる時間はほぼ半分でした。医療において記録することが重要な仕事であることは間違いありませんが、それが過重な負担になっているという現実があったわけです。
——AIの活用で記録のための時間を減らせないかと考えたわけですね。
長堀 医療の効率化を図るために、意識の高い病院ではいろいろな試みを取り入れていますが、いずれも手間がかかる割に即効性がないように思えました。そんなことを考えている頃に、集中出版が事務局を務める「日本の医療と医薬品等の未来を考える会」で、9DWの井元さんの講演を聞いたのですが、それがこのプロジェクトが生まれるきっかけになりました。その時の講演で、AIの音声認識について、アナウンサーが話す言葉をほぼリアルタイムで文字化してテロップで流すことができる、という話があったのです。これは使えるな、と思いました。2017年夏のことです。
——そういう経緯で9DWと組むことになったのですね。
長堀 そうです。AIホスピタルの公募が始まったのは18年7月ですが、実はその前から話を進めていて、18年4月からはパイロットスタディを始めていました。API(アプリケーション・プロセス・インターフェイス)サーバーが病棟に置いてあって、そこでマイクが拾った音声をテキスト化するのですが、そのくらいのところまでは、公募が始まる前に既に進んでいました。つまり、私達はAIホスピタルの公募があったから始めたのではなく、たとえ国のプロジェクトがなくても、自力でやるつもりだったのです。ただ、国の予算が付けば、自力の場合より多くのことが行えます。そこで、公募に手を挙げることにしたのです。ただ、時間的にはかなり厳しい状況でした。
——時間的に厳しかったとは?
長堀 7月26日に公募が始まっていたのですが、それを初めて知ったのは8月8日の日経新聞を読んでいる時でした。「AIホスピタルによる高度診断・治療システム」という課題の公募があるのを知り、我々がやり始めたことと重なるので応募することにしたのです。ただ、締め切りが8月21日でしたから、井元さんと2人で、1週間くらいで30枚に及ぶ申請書を書き上げ、最終日の21日に提出しました。書類審査で半分になったのですが、その結果が発表されたのが9月10日で、12日にプレゼンテーションが行われました。何人かの委員の方からは、このプレゼンテーションはインパクトがあって良かったと言われました。既にパイロットスタディを始めていたので、それなりに説得力があったのだと思います。
■AIがもたらすより人間的な診療
——採択された他のプロジェクトを見ると、大手企業が名を連ねていますが。
長堀 冗談で医療版『下町ロケット』と言っているのですが、横須賀共済病院と9DWのチームには、現場に根差して研究開発を進めているという強みがあると思っています。
——音声による電子カルテの自動入力ができれば、医師がもっと患者さんの顔を見て診察できるようになると期待されていますね。
長堀 新しいテクノロジーが出てくることで、人間生活が便利になるのは当然だし、人間性豊かな診療ができるようになるのも当然です。電子カルテに関していえば、これまでは何かうまく噛み合っていなかったのだと思います。電子カルテの入力に時間を取られて、患者さんの顔を見る時間がなくなってしまうなどという状況を回避するためにも、音声による自動入力は完成させるべき技術です。また、いくつものベンダーがあって相互乗り入れできないという電子カルテの現状は、膨大な無駄を生み出しています。AIによる自動入力が可能になるのを機に、こうした問題も解決すれば良いと思っています。当病院が掲げている理念は、「よかった。この病院で」というものです。我々の目指しているAIが実用化すれば、患者さんにも、職員にも、社会にも「良かった」と思ってもらえるAIホスピタルが実現すると思います。
日本語を文字化する技術で世界をリード
■使い始めてからもAIは成長する
——現時点の技術で、音声を文字化することはどの程度できるのですか。
井元 普通の会話であれば、90%以上の認識率で文字化することができます。ただし、これは我々が測定しているのと同じ条件で音声を拾った場合、という条件付きです。今回の音声による自動入力は、病院内における会話で電子カルテに自動入力しようということなので、病院内で使われることを前提として開発を進めています。横須賀共済病院との共同開発は、国のプロジェクトとして採択される前から進めていて、医療現場の方達から、どのようなニーズがあるのかについてヒアリングを続けてきました。また、2018年4月から開始した実証実験では、看護師の会話を拾って音声ログとして残し、それを自動的に文字化することができるかを調べていました。それが終わりに近づいた頃に、国の事業としてAIホスピタルのプロジェクトが進められていることを知ったのです。我々がやろうとしていたことと似ていたので、そのまま応募してみることになりました。
——国の事業と異なる部分もあったのですか。
井元 国の事業では求められていませんが、横須賀共済病院とやろうとしているのは、手術室や救急医療の現場など、雑音や場合によっては怒号が飛び交うような厳しい環境でも、音声認識ができて文字で記録を残せるようにしようということです。こういう場面こそ、電子カルテに入力するために手を止めることができないので、音声による自動入力は意味があると思っています。
——音声からの自動入力で、人間が書くような文章が書けるのですか。
井元 運用を開始する時点では、人間がやるより誤字率が高いなどの弱点があり、手直しが必要になる可能性があります。ただ、そうであっても、ゼロから文章を書くのに比べれば、ずっと短い時間で記録を終えられると思います。また、チェックされた部分については、どこをどのように直されたのか分かるようにするので、AIは復習することができます。それによって、誤字率が下がってくるなど、性能を向上させていくことが可能です。こういった点がAIの魅力でもあります。
——これまで医療分野でのAI開発の経験は?
井元 弊社では医療に特化したJVである株式会社3AISがあるのですが、CTやMRIの画像から医師の診療の補助をするAIを開発してきました。我が社は社是として「世界平和実現」を掲げていて、自分達で取り組まなければならない分野を五つ決めています。それが衣、食、住、医療、教育です。そのため医療は大切なファクターだと考えています。
——今回の開発で難しいのは、どの部分でしょう?
井元 音声を高精度に認識して、それを文字化するという技術は、電子カルテの記入以外にも活用できる汎用性の高い技術です。ところが、それを確立できているところは、我々を含めてまだない状況にあると私は認識しています。音声を認識できたとしても、それを文字にするのには別の技術が必要となります。その言語処理を行う時に、最も難しい言語とされているのが日本語なのです。
■日本語には英語にはない難しさがある
——日本語はどういう部分が難しいのですか。
井元 それぞれの言語には独特の難しさがあり、例えば英語では会話になるとスラングが増えるとか、文法があまり守られなかったりするといった難しさがあります。日本語は同音異義語の多さが音声を文字化する場合の大きな壁になります。また、英語はアクセントがしっかりしているので、よほどのことがない限り、単語や文の切れ目がどこかは分かります。それに比べ、日本語はずるずる長く続き、どこで区切られるのか、分かりにくいことが多いのです。さらに、ひらがな、カタカナ、漢字という文字の種類があります。そのどれを選ぶのか、漢字ならどの漢字を当てるのか、とにかく選択肢が広いので、それだけ難しくなります。
——日本語対応のAIを開発しても、その技術を海外に展開するのは難しいわけですね。
井元 それはできるのではないかと考えています。実は英語では、音声を高い精度で文字化するという技術は既にあります。なぜなら、英語ではそれをやりやすいからです。ところが、その技術があっても日本語に対応させることはできません。日本語には独特の難しさがあるし、日本語を主にしゃべっているのは日本だけという事情も関係しています。だからこそ、グーグルも、アマゾンも、フェイスブックも、日本にそういうサービスを導入できていないのです。逆に日本語を高精度に理解できるエンジンを開発すれば、それをほぐして英語に当てはめれば、英語の音声を高精度に理解するのは、さほど難しくないと考えています。
——医学の専門用語も勉強させるのですか。
井元 医学事典に載っているような一般的な専門用語はもちろんですが、医療の現場では様々な省略形も使われています。それも、病院によって省略の仕方が異なっていたりすることがあるので、そういった省略語なども学習させることにしています。既に横須賀共済病院で使われている省略語のいくつかは正確に認識できますし、電子カルテには省略形ではなく、正式な形の単語を使って文章化することができます。
——電子カルテの記入だけでなく、インフォームドコンセント時の双方向コミュニケーションシステムも開発するのですね。
井元 これを実現するためにも音声認識のエンジンが必要ですが、もう一つ必要なのが、患者さんがしっかり理解できているのか、その理解度を測定することです。それには、しゃべっている言葉だけでなく、患者さんの表情を解析することなども加えていくことになります。それらを総合して、インフォームドコンセント時の患者さんの理解度がどの程度か、パーセントで示せるようなシステムになるでしょう。国が進めるAIホスピタル事業では、19年度末(20年3月)までに何らかの結果を出す必要があり、そこで認定されれば、22年度末(23年3月)のゴールを目指すことになります。19年度末までは、音声エンジンの開発を中心に進め、医療現場の会話で認識率95%というところまで持っていきたいと考えています。
LEAVE A REPLY