RACCOON TECH BLOG

株式会社ラクーンホールディングスのエンジニア/デザイナーから技術情報をはじめ、世の中のためになることや社内のことなどを発信してます。

人はなぜ「自信満々に間違えるAI」にイラつくのか?

最近ずっとAIについて考えている1年目の東島です。考えを巡らせる中で一つ気付きがあったので、書き起こしてみました。よければ目を通してください。

AIへの苛立ち

AIに統計の調べ物を頼んだら、もっともらしい統計データを出されたが、調べたらどこにもそんなソースはなかった。

一見正しそうなコードを提案されたがよく見るとおかしなコードだった。

そんな経験はないだろうか。いわゆる「ハルシネーション (幻覚)」と呼ばれるものだ。

こういうとき、多くの人がイラッとする。

しかし冷静に考えると、これは不思議な反応である。音声入力が文字起こしをちょっと間違えていても、マップアプリがすこし遠回りの道を案内しても「まあ機械だし」で済む。AIへの苛立ちに比べたら些細なものだ。だが、一体なぜAIの間違いには、これほど苛立ちを覚えるのだろうか。

原因は、AIの振る舞いが人間に近すぎることにある、と私は考える。

そもそも生成AIは「考えて」答えを出しているわけではない。膨大な学習済みデータから「こう聞かれたら、こう返すのが一番それっぽい」という確率的な予測をしているだけだ。AIにとっては、その回答が統計的に最も正解らしいから出力している。自信がないわけがない。

問題は受け取る側にある。

AIの受け答えがあまりにも自然なため、人は無意識のうちに「ちゃんと考えて答えてくれている」と期待してしまう。人間同士の会話と同じ感覚で接してしまう。だから間違いに対して「なぜ確認しなかったのか」「適当なことを言うな」という反応になる。

つまり、無意識に「責任」を求めてしまっているのだ。

人間は無意識に、言葉の背後にある「意図」や「誠実さ」を読み取ろうとする。自信満々の発言には、その発言への責任が伴うと期待してしまうのだ。

人間が自信満々に間違ったことを言えば、それは不誠実か、少なくとも確認不足である。しかしAIは嘘をついているわけでも、手を抜いているわけでもない。統計的にそれらしい文章を生成しているだけで、そこに悪意も怠慢もない。

頭ではわかっていても、あの流暢な日本語を見ると、つい人間相手のように接してしまう。これは人間の認知の癖であり、意識だけで変えるのは難しい。

ではどうすれば?

アプローチはいくつかある。

システムプロンプトで嘘をつくことを抑えるために、以下のような方法がある。

システムプロンプトというのは、どの会話でも必ず従う「前提プロンプト」のようなもの。この分野はよく話題に上がり、洗練されてきているので調べてみてほしい。主要なAIチャットツールの多くはシステムプロンプトを設定できるようになっている。

例えば、ChatGPTだと「カスタム指示」から、Geminiだと「Gems (有料プランのみ) 」から設定できる。※2026年2月時点

今回提案したいのはすこし変わったアプローチ。

それは「 AIの喋り方を変える」という方法。

たとえば口調をお嬢様言葉にし語尾を「〜ですわ」にする、執事のような過剰に丁寧な口調にする、あるいは極端にカジュアルなキャラクターにする。いわゆる「ペルソナ設定」の心理的応用だ。要はこの相手は普通の社会人ではないと脳に認識させるのだ。

一見馬鹿げているが、これが自分には意外と効果的だった。間違えられても「まあこういうキャラだし」で済むようになる。逆に正しいことをすると「すごい!」となる。無意識にしていた「責任の要求」が薄くなっていた。

まとめ

結局のところ、AIにイラつくのは「人間だと認識してしまう」からと考える。であれば、最初から人間らしくない立ち振舞いをさせればいい。中身は変わらなくても、受け取り方は変わる。

AIとうまく付き合うコツは、技術を理解することよりも、自分の認知をコントロールすることにあるのかもしれない。

ラクーンホールディングスは、AIを活用した開発を行っています。少しでも興味がありましたら、こちらからご応募お待ちしてます。

※記事の内容は個人の感想です。学術的に正確な情報ではありません。

一緒にラクーンのサービスを作りませんか? 採用情報を詳しく見る

関連記事

運営会社:株式会社ラクーンホールディングス(c)2000 RACCOON HOLDINGS, Inc