
今話題のRAGってどんな技術?AIの賢さ、その核心に迫る

RAG(ラグ)って知ってますか?
しおみ:ヘルプエイプさん、「RAG(ラグ)」って知ってますか?
ヘルプエイプ:もちろんです。どうかしましたか?
しおみ:最近、社内外でよく耳にするようになりましたよね。でも、いざ人に説明しようとすると意外と難しくて……。
ヘルプエイプ:それならAIエキスパートエンジニアの寺本さんに聞いてみませんか?わかりやすく教えてくれるはずです。
しおみ:それはいいアイデアですね!さっそく聞いてみます!
・・・・後日・・・・
しおみ:今回は、AI事業室でRAGの開発に携わっているAIエキスパートエンジニアの寺本さんに、改めて詳しくお話を伺いたいと思います。寺本さん、よろしくお願いします!
寺本:よろしくお願いします! AI事業室の寺本です。意図予測検索3をはじめ、さまざまなAI技術の開発に取り組んでいます。最近はDevin(デビン)という完全自律型AIを使った実験をしています。(X:@teramotodaiki)

そもそもRAGってなんですか?
しおみ:早速ですが、RAGって具体的にどのような仕組みなんでしょうか? 名前や概要はなんとなく知っているんですが、実際にどう機能しているのか改めて教えていただきたいです!
寺本:そもそも最近、RAGという言葉がバズワードのようになり、一般の人が使っていることに驚いています!もともとは主に研究者や技術者の間で使われていたキーワードだったので。
しおみ:え!そうだったんですね。
寺本:はい。近年、色々な企業がRAGという言葉を使い始めたことにより研究者以外の方にも広がってきているようです。
RAG(Retrieval Augmented Generation)とは「LLM(大規模言語モデル)が回答を作るときに、必要な情報をインターネットやデータベースから探してきて補ってあげる仕組み」です。

寺本:もともとRAGはLLMがまだそこまで賢くなかったときに生まれた技術なんです。
たとえば昔は「日本の総理大臣は?」と聞いても、LLM自身が知識を持っていないので間違えることが多かった。
どうすれば答えられるようになるかと考えると、シンプルな解決策があります。「ググったらいい」んです。ググったら必ず総理大臣の名前が出てきますよね。
つまり世の中に検索サービスというものがすでにあって、そこに知識が貯まっているから、「検索サービスとLLMを組み合わせたら正しく答えられるようになるはず」。これがRAGのコンセプトです。
ヘルプエイプ:ChatGPTみたいな会話AIだと昔はよく「新しい情報がない」って言われてましたもんね。
寺本:そうです。ChatGPTも昔はRAG機能がなかったので、すごく簡単な質問にも全然回答できなかったんです。RAGの仕組みがあると、それをある程度解消できます。
そして、2025年現在だとRAGを使うことは当たり前になっています。さらにLLMそのものも進化して巨大になり、一般的な知識はすでに持っている状態になりました。

そのため、LLMが賢くなる前に求められていたRAGの性能と、今現在求められているRAGの性能も大きく変わってきています。一般的な知識の検索においては、以前ほどRAGが活躍する場面は少なくなっています。
では現在のRAGに何が求められているかというと、「ググっても出てこないデータ」の検索なんです。
しおみ:なるほど〜!
RAGが活躍する分野と課題
しおみ:「ググっても出てこないデータ」の検索で活用できるRAG、具体的にどういう分野で活躍するんでしょうか?
寺本:たとえば社内独自のドキュメント・ナレッジ検索に役立ちます。社内のドキュメントには独自の社内用語やルール、手順など社内のことをよく知らないとわからないことがたくさんありますよね。
LLMは社内の知識を持っていないので勝手に推測して回答しちゃうんです。
ヘルプエイプ:社内独自の言い回しとか、短縮語とか、プロジェクト固有のルールとか、結構ありますよね。
寺本:そうなんです。ただ、従来のRAGだと社内ドキュメントからただ検索をして持ってくるため誤った回答(ハルシネーション)をしてしまったりと、なかなか精度が上がらないことが多いんです。
実際にRAGを導入した企業の方から「試してみたけれど、誤回答が多くて実用に耐えなかった」という声をよく聞きます。
今求められているのはただのRAGではなく、空気を読んで誤った回答をしないRAGなんです。
しおみ:確かに。でもRAGが誤った回答をしないようにするにはどうしたらいいんでしょうか?
誤回答を抑える最先端RAG「意図予測検索3」
寺本:Helpfeelでは、従来のRAGの課題を解決するために最先端RAGを採用した『意図予測検索3』という新しい検索技術を開発しました。今回はその例を紹介しますね。
具体的に仕組みを説明すると、社内ドキュメントの原文をすべてLLMに読み込ませた後、原文を勝手に創作させずに忠実に抜き出してもらいます。 膨大なコンテンツの大事そうなところに、とにかくたくさんマーカーを引いていくイメージですね。

事前にマーカーをたくさん引いているので、ユーザーが検索したときにそのマーカーの箇所を目印に適切な部分を素早く提示できます。そしてマーカーを引いているところの文章を創作せずに引用する形で提示しています。
そうすると嘘をつく(誤回答を提示する)可能性って限りなく低くなりますよね。
しおみ:「あえて創作させていない」んですね。
寺本:そうなんです。正直、この意図予測検索3の仕組みは、他のAIシステムと比べると派手さはないかもしれません。
でも、私たちが一番大事にしているのは、ユーザーが実際に使ったときに本当に便利かどうかなんです。
一番知りたい大事なところを短く提示してくれて、もっと知りたかったら原文を見ればいい、というシンプルな仕組みを目指しました。
しおみ:なるほど。たしかにチャットAIなどの長い回答文は、結局何が言いたいのかわからないことがありますよね。回答に対して「要約して」と言って要約してもらうこともあります。
寺本:ありますよね。最後まで読んでも実は質問の回答になっていなかったり、誤回答になっていることも多いです。
しおみ:意図予測検索3は、これからどうパワーアップしていくんでしょうか?
寺本:まだ研究開発段階なのですが、AIエージェント製品の開発も進めています。さらに企業やユーザーにパーソナライズされた回答ができるような仕組みも考えています。
「ユーザーにとって本当に便利なAIとは何か」を常に考えながら、今後のアップデートを行っていくつもりです。
しおみ:「AIエージェント」も今注目されているキーワードの一つですよね。また詳しくお話聞かせてください!
RAGはAIの賢さの核心だった
しおみ:今日はRAGについて詳しく教えていただき、ありがとうございました! 社内の検索やカスタマーサポートなどいろんな場面で活用できるんですね。
RAGは、AIがより賢く、人間にとって実用的なものになるための重要な技術なのだと実感しました。
寺本:こちらこそ、熱心に聞いていただきありがとうございました。RAGは今後さらに幅広い領域での活用が期待されています。ぜひ今回の知識を役立てていただければ嬉しいです!
しおみ・ヘルプエイプ:意図予測検索3の進化も楽しみです。ありがとうございました!
感想・リクエストを募集しています!
記事の感想や取り上げてほしいテーマなど、以下のフォームからお送りください。
コンテンツ制作の参考にさせていただきます!