02

LLMができること・できないこと

2025年7月8日
LLMChatGPT文章作成翻訳要約幻覚ハルシネーション

「ChatGPTはなんでもできる魔法のようなAI」と思っていませんか?実は、LLMには得意なことと苦手なことがはっきりと分かれています。この記事では、LLMが実際に何ができて、何ができないのかを具体例とともに解説します。適切な期待値を持つことで、LLMをより効果的に活用できるようになりますよ。

LLMが得意なこと

はじめに、LLMが特に優れている分野について紹介します。

文章作成と編集

LLMの最も得意な分野は 文章の作成と編集 です。人間が書くような自然で読みやすい文章を、目的に応じて様々なスタイルで生成できます。

たとえば

  • メール作成: 「会議の資料準備が遅れている」という状況を伝えると、丁寧で適切なお詫びメールを作成
  • 企画書作成: 「新しい商品のマーケティング戦略」について、構成の整った企画書を作成
  • 文章校正: 誤字脱字の修正や、より読みやすい表現への改善提案

要するに、LLMは「優秀な文章作成アシスタント」として、様々な文書作成作業を手助けしてくれます。

翻訳と言語処理

LLMは 多言語間の翻訳 にも優れています。単なる単語の置き換えではなく、文脈を理解した自然な翻訳ができます。

たとえば

  • 日常会話の翻訳: 「お疲れ様でした」→「Thank you for your hard work」(直訳ではなく、状況に応じた自然な表現)
  • 専門分野の翻訳: 技術文書や学術論文の翻訳で、専門用語を適切に処理
  • 言語学習支援: 文法の解説や、より自然な表現への改善提案

従来の翻訳ツールと比べて、LLMは文脈を理解した「人間らしい」翻訳を提供できるのが大きな特徴です。

要約と情報整理

LLMは 長い文章やデータを要約 することも得意です。重要なポイントを抜き出し、分かりやすく整理して提示できます。

たとえば

  • 会議議事録の要約: 2時間の会議内容を、決定事項と次回までの宿題に分けて整理
  • 研究論文の要約: 専門的な論文を、主要な発見と結論に絞って分かりやすく説明
  • ニュース記事の要約: 複数の関連記事から、事件の全体像を時系列で整理

要するに、LLMは「情報を整理して分かりやすく伝える」ことが非常に得意なのです。

プログラミング支援

LLMは プログラミングコードの生成と解説 も得意分野の一つです。様々なプログラミング言語でコードを書き、バグの修正や改善提案もできます。

たとえば

  • コード生成: 「顧客データベースから名前を検索する機能」という要求から、実際に動くコードを生成
  • バグ修正: エラーメッセージを見せると、問題の原因と修正方法を提示
  • コード解説: 複雑なプログラムの動作を、初心者にも分かりやすく説明

このように、LLMは「文章を扱う」という基本能力を活かして、様々な分野で高い性能を発揮しています。

LLMの限界と苦手なこと

次に、LLMが苦手とする分野や、注意すべき限界について説明します。

幻覚(ハルシネーション)

LLMの最も大きな問題の一つが 幻覚(ハルシネーション) です。これは、事実ではない情報をもっともらしく作り上げてしまう現象 のことです。

たとえば

  • 存在しない論文の著者や発表年を、具体的な数字とともに回答
  • 実際にはない歴史的事件を、詳細な説明とともに語る
  • 架空の統計データを、正確な数字であるかのように提示

これは、LLMが「文章のパターン」を学習しているため、事実かどうかに関係なく、自然に聞こえる文章を生成してしまうためです。

要するに、LLMは「確信を持って間違ったことを言う」ことがあるため、重要な情報については必ず別の情報源で確認する必要があります。

リアルタイム情報の取得

LLMは 最新の情報や、リアルタイムで変化する情報 を取得することができません。これは、学習データが過去の時点で固定されているためです。

たとえば

  • 今日の天気予報や株価
  • 最新のニュースや事件
  • 現在進行中のスポーツの試合結果

たとえば、2024年に起きた出来事について、2023年のデータで学習したLLMに質問しても、正確な回答は得られません。

計算と論理的推論

LLMは 複雑な計算や論理的推論 が苦手です。これは、文章生成に特化しているため、数値処理や段階的な推論プロセスに限界があるためです。

たとえば

  • 多桁の掛け算や割り算(電卓の方が確実)
  • 複雑な数学の証明問題
  • 多段階の論理的推論が必要な問題

要するに、LLMは「言葉での説明」は得意ですが、「正確な計算」や「厳密な論理」は苦手分野なのです。

感情の理解と共感

LLMは 人間の感情を本当に理解している わけではありません。感情的な表現を使うことはできますが、それは学習したパターンに基づいているだけです。

たとえば

  • 悲しい状況に適切な言葉をかけることはできるが、本当に悲しみを理解しているわけではない
  • 励ましの言葉を言うことはできるが、人間のような共感は持っていない

これは、LLMが「人間らしい応答」を学習しているだけで、実際の感情や意識を持っているわけではないためです。

バイアスと公平性の問題

最後に、LLMが抱える社会的な課題について解説します。

学習データのバイアス

LLMは 学習データに含まれるバイアス を引き継いでしまう問題があります。これは、インターネット上のテキストデータに含まれる偏見や不平等が、LLMの回答に反映されてしまうことを意味します。

たとえば

  • 特定の職業について、性別や人種に関する偏見を含んだ回答
  • 特定の国や文化に対する偏った見方
  • 社会的少数派に対する不適切な表現

文化的・言語的制約

LLMは 特定の言語や文化圏 のデータを多く学習しているため、他の文化や言語に対する理解が不十分な場合があります。

たとえば

  • 英語圏の文化に関する知識は豊富だが、他の文化圏については知識が限定的
  • 少数言語や方言に対する理解が不十分
  • 文化的な慣習や価値観の違いを適切に反映できない

倫理的判断の限界

LLMは 複雑な倫理的判断 を行うことができません。一般的な倫理原則は学習していますが、状況に応じた柔軟な判断は困難です。

たとえば

  • 法的にグレーゾーンの問題への対応
  • 文化や宗教によって異なる価値観への配慮
  • 個人の状況に応じた適切なアドバイス

要するに、LLMは「一般的な知識」は豊富ですが、「個別の状況に応じた判断」は人間が行う必要があるのです。

まとめ

LLMは文章作成、翻訳、要約、プログラミング支援などの分野で優れた能力を発揮しますが、幻覚、リアルタイム情報の取得、複雑な計算、感情理解などには限界があります。また、学習データのバイアスや文化的制約といった社会的な課題も抱えています。

要するに、LLMは「優秀な文章作成アシスタント」として活用し、重要な判断や最新情報の確認は人間が行うという使い分けが大切です。

次回の記事では、LLMがどのような歴史を経て現在の形になったのか、検索エンジンから対話AIまでの技術的進化を詳しく解説していきます。