YCU Research Portal

YCU Research Portal

ChatGPTに医学に関する質問をする際の注意点を科学的に明らかに

横浜市立大学医学部 循環器・腎臓・高血圧内科学の土師達也助教(次世代臨床研究センター(Y-NEXT) 兼任)、平和伸仁准教授、田村功一主任教授らの研究グループは、OpenAI社のChatGPT に医学に関する質問をする際の注意点を科学的に検証しました。

ChatGPTに医学に関する質問を与え、その正答率を医学分野ごと(循環器学、小児科学など)に集計して解析を行ったところ、それぞれの医学分野においてこれまでに出版された文献数とChatGPTの正答率が有意な関連を示すことがわかりました。これはChatGPTの性能が、各分野における情報量の違いの影響を受けている可能性を示すものであり、たとえば新薬や新興感染症などの情報量が乏しい分野に関して質問をする際には、回答が正しいかどうか注意が必要であると考えられます。

このほか、正答率に影響を与える要因として質問の形式(多肢選択問題、計算問題など)が重要であるほか、全く同じ問題を連続して出題した際の回答の一貫性によって、ChatGPTの回答が正しいかどうかを予測できる可能性を示しました。

本研究成果は、査読付き英文雑誌「International Journal of Medical Informatics」に掲載されました。(2023年11月3日オンライン公開)

研究背景

ChatGPTを含む自然言語処理を可能とする生成系人工知能は、そのユーザビリティの高さから世界規模で急速に利用が拡大しています。利用者は会話をするようにChatGPTにあらゆる事項について質問をし、回答を得ることができます。ChatGPTはインターネット上に存在する膨大なありとあらゆるテキストデータを学習して構築されましたが、医学に関する質問に対して正しい答えを導出するように設計されたわけではありません。したがって、ChatGPTが医学に関する質問に対して正しい答えを導き出せるのか、どのような場合に誤答をする可能性があるのかについては科学的な検証がなされていません。一方で、すでに世界中にユーザが拡大しており、身の回りの医学・保健に関する質問をChatGPTに尋ねる事例も増えていると考えられます。ChatGPTの回答内容は必ずしも常に正しいとは限りませんが、自然な文章内容であることから、利用者は一見してその回答内容の正誤について判断ができないケースも多くあります。

今後、ChatGPTを含む人工知能を正しく利用していくにあたって、われわれはその性能と注意点を科学的に検証し、明らかにしていく必要に迫られています。

研究内容

研究グループは、日本の医師国家試験 3年分をChatGPTに出題し、その正答率と回答の一貫性を集計しました。この研究にはChatGPTの旧モデルであるGPT-3.5と、 最新モデルであるGPT-4の両方が使用されました。その結果、GPT-4はGPT-3.5に比較して著しい正答率の向上を認めました (56.4%から81.0%へ)。回答の一貫性に関しても大幅に向上していることがわかりました (56.5%から88.8%へ)。

さらに、研究グループは試験問題について、その出題形式(単肢選択問題/多肢選択問題/計算問題)や出題内容(循環器学・小児科学など分野ごと)に応じて分類し、正答率に関連する因子についてさらに検証を進めました。ChatGPTはインターネット上の膨大なテキストデータを学習して構築されましたが、その情報量には分野ごとに偏りがある可能性があり、それはChatGPTの性能にも影響を与えた可能性があります。そこで研究グループはインターネット上の情報量の一つの指標として、その分野においてそれまでに出版され、世界的な学術文献・引用情報データベースであるWeb of Science Core Collection (Clarivate社) に収蔵された全ての文献数を集計しました。このデータベースには世界中で刊行された主要な学術雑誌 (約21,000誌)の文献が収録されています。その結果、各分野における正答率は、その分野における総文献数と有意に関連することが多変量解析を含む科学的解析によって明らかになりました (図1)。このほかに出題形式や回答の一貫性 (同一問題を連続して出題した際の回答内容の一致率)が正答率に関連することがわかりました。
図1: 医学分野ごとに集計した正答率との関連性
A 同一問題への回答内容の一貫率と正答率との関係/B 各医学分野における総文献数と正答率との関係

今後の展開

これまで医学に関する質問に対するChatGPTの性能や注意点について、科学的に検証を行った研究は乏しく、本研究は先駆的な位置付けとなります。今回の研究はその規模や手法に限定的な点があるため、今後、さらなる検証が必要と考えられますが、本研究の結果は、ChatGPTの性能がその分野における情報量の格差の影響を受けている可能性を示しており、たとえば新薬や新興感染症などの相対的に情報量が乏しい分野に関して質問をする際には、回答が正しいかどうか注意が必要であることを示唆しています。また、ChatGPTの回答内容は必ずしも常に正しいとは限りませんが、自然な文章内容であることから、利用者は一見してその回答内容の正誤について判断ができないケースも多くあります。

今回の研究結果は、利用者がChatGPTの回答内容の正誤を判断する上での一助となることが期待されます。医学に関する質問に対するChatGPTの性能と注意点の理解は、医学分野での実際の運用に加え、一般市民が日常の医学・保健衛生上の問題解決や知識獲得・教育を促進していく上でも非常に有用と考えられます。

論文情報

タイトル: Influence on the accuracy in ChatGPT: Differences in the amount of information per medical field
著者: Tatsuya Haze, Rina Kawano, Hajime Takase, Shota Suzuki, Nobuhito Hirawa, Kouichi Tamura
掲載雑誌: International Journal of Medical Informatics
DOI: 10.1016/j.ijmedinf.2023.105283

問い合わせ先

横浜市立大学 広報課
mail: koho@yokohama-cu.ac.jp
  • 3 全ての人に健康と福祉を
  • 4 質の良い教育をみんなに
  • 9 産業と技術革新の基盤をつくろう