ROMSEN

2chで話題になったニュースを
短時間で読める まとめサイト

津波警報の発表中にグーグル検索、AIが「すべて解除」と誤情報


8日深夜に青森県東方沖を震源として発生した地震をめぐり、グーグルで津波情報を検索したところ、生成AIによって誤った回答が繰り返し表示された。専門家は「命にかかわる分野で、AI検索に頼るべきではない」と指摘する。

地震は8日午後11時15分ごろ発生し、青森県八戸市で最大震度6強を記録した。気象庁は北海道と青森県、岩手県に津波警報、宮城県、福島県などに津波注意報を発表した。その後、9日午前2時45分に全ての津波警報が注意報に切り替わり、午前6時20分には全ての注意報が解除された。

しかし、津波警報や注意報が続いていた9日午前2時10分ごろ、記者がグーグルで「最新の津波情報について教えて」と検索すると、「AIによる概要」には「現在、大津波警報・津波警報・津波注意報はすべて解除されており、発表されていません」と表示された。

その後も2度、同じ質問で検索したが、津波警報が発表中にもかかわらず、「現在は津波警報は解除され、主に津波注意報が発表されている」などと誤った回答が繰り返し示された。

グーグル検索でAIによる概要を表示する機能は「AIオーバービュー(AIによる概要)」と呼ばれる。検索された質問に対して、複数の情報源を元に生成AIが回答を生成し、通常の検索結果より上部に表示する。

検索エンジンの仕組みに詳しい「Faber Company」(東京都)の上席SEOコンサルタントの辻正浩さんは「AIによる検索では、もっともらしく見える誤情報を生成する『ハルシネーション』が起こりうる」とし、重大な問題でのAI検索に注意を呼びかける。

専門家「たった1回でも」
辻さんによると、今回の地震…(以下有料版で,残り491文字)

朝日新聞 2025年12月10日 5時00分
https://www.asahi.com/articles/ASTD933Y2TD9OXIE008M.html?iref=comtop_7_02
https://www.asahi.com/articles/ASTD933Y2TD9OXIE008M.html?iref=ogimage_rek

ネット民のコメント

  • リアルタイム情報を通常検索したのに一番上にAI要約で過去の情報出てきて検索結果の上位にも最新のリンク一覧じゃなくてAIが判断した過去の解除情報が並んでしまってて最新情報は下の方とか次ページに追いやられてるのが危険ってことかと

  • もうチャッピーもclaudeも嘘が少なくなってるのgeminiっていつまでも嘘つきの馬鹿なままだよね

  • そりゃあそういうのもあったのかも知れんが、なぜこの記事にはgoogleの担当者が登場しないの?Geminiがすべてのユーザーに同じ回答しているとでも?聞き方次第でだいぶ変わるだろ。仕組みを確認せずに自分の経験と第三者コメントでつなぐのは記事としては不十分ではないかね。さすがオールドメディアw

  • それはどういう意味でしょうか的なこと書きながら見当違いの回答してくることもあるし分からないなら絡んでくんな

  • 2026年12月に発生した震源どこどこの地震で発表された津波警報は現在解除されていますが?とでも質問すりゃまず間違えないよ

  • 津波警報の発表の後には必ず解除が来るということを学習してるだろうから、そりゃあそうなるだろうなw

  • AIは97%くらい正しい答え返すけど3%くらい自信満々に大嘘付くから結局全ての回答の精査が必要になる

  • 人間なら「そりゃそうだけどそうじゃねーだろw」としかならんわけだが、知能を持たない単なる機械学習マシーンでしかないAIには、それが判断できないのだ。

  • 現在のAIは学習能力が不足しており、生成AIにならなければ本物とは言えません。将来的には量子AIに移行する可能性がありますが、それはまだ先の話です。

  • いや、これは単にググったら勝手に先頭にAIによるなんちゃらかんちゃらつって出してくるアレのことだろうよw

  • google AIはソースサイトを提示してくれるけどソースの読み取りすら正しくできてないんだから他のAIと一緒にしたら失礼なくらいのポンコツ

  • AIに期待されてるものと現実のニュースにこれほどギャップがあるのに流れがおかしいと思う からくりは何だと訝しく思ったらおかしいのか?

  • 地震や津波みたいな緊急系って落ち着くまではAIが探れないデータがメインだからAI使うこと自体が間違ってるやろ

  • AIにガチ最新(リアルタイム)の情報を求めるならこっちから情報提供したうえで分析してもらう形にしないとドヤ顔で古い情報持ってくるぞ

  • 毎度のことながら自分たちに都合のいい意見を言う専門家を探してきてチェリーピッキングしてるし、マスゴミというよりもはやゴミですわ

  • つまり、極めて良心的なポリシーで作られたAIであっても、その回答には必ず、沢山の欺瞞が含まれるんだわw

  • その場合、どんな風に修正してほしいか、詳細にフィードバック送るといいかもしれませんけど、それでも改善されない場合は本当にがっかりですよね。Soraのサポートとか、何か解決策を試しましたか?

転載元:http://itest.2ch.sc/test/read.cgi/newsplus/1765317628/