ChatGPTの出した答えを鵜呑みにしてはいけない?!――AI時代にアイデアを生み出す最強の手法を解説する幻冬舎新書『「超」創造法 生成系AIで知的活動はどう変わる?』より、内容を抜粋してお届けします。
* * *
ChatGPTを信じれば、破滅する
生成系AIの出力には誤りがあります。これに十分注意することが、生成系AIの利用にあたって最も重要な点です。それにもかかわらず、これを無視する人がいます。
2023年5月に、アメリカの弁護士がChatGPTの出力した判例を民事裁判の資料として使用したところ、虚偽のものであることが発覚し、問題となりました。こんなことをする人がいるとは、信じられないことです。資格を剥奪されても当然でしょう。いやその前に、この弁護士に仕事を依頼する人はもういないでしょう。
この例から分かるように、生成系AIの出力情報を信じて利用することの結果は、破滅的なものとなり得ます。
多くの人が、生成系AIは質問をすれば、正しい答えを出してくれる魔法の仕掛けだと思っていますが、それは間違いです。
ChatGPTは、2021年9月までのデータについてしか学習していません。ですから、それ以降の出来事に関してはまったく無知です。したがって、最近の出来事についてデータや知識を得ようと思っても、もともとできません。
それにもかかわらず、ChatGPTは、そうした問いに対して答えを提供します。例えば、「2023年のG7広島サミットで何が議論されましたか?」と聞くと、もっともらしい答えを出力します。この場合には、明らかに虚偽と分かりますが、はっきりと判別できない場合が多いので、注意が必要です。
AIは悪意を持たない
AIの出力が信用できない理由として、「学習に用いたデータの質が問題だから」と言われます。あるいは間違った情報を意図的に流して、世論調査を操作する危険も指摘されます。
もちろん、そうした問題もあり得ます。しかし、現実に生じている問題は、そうした性質のものではありません。
学習したデータの大部分は正しい情報だと思いますが、ChatGPTは、それらと誤った情報の区別ができない。あるいは、学習した情報を誤った対象に適用しているのです。
例えば、Bingに統計データを尋ねると、参照しているサイトのURLを示しますが、政府統計などの一次データではなく、怪しげなサイトにある二次データを参照している場合がしばしばあります。
経済データの分析にあたっては、信頼できる情報をどこで得られるかを知っていることが重要なノウハウなのですが、Bingにはそのような判別ができないようです。この点から言えば、従来型の検索エンジンのほうがはるかに信頼できる情報源です。
「神はたくらみ深いが悪意を持たない」(Raffiniert ist der Herrgott, aber boshaft ist er nicht)とは、アインシュタインの有名な言葉です。
AIは、神のようにたくらみ深くはありませんが、悪意を持たない点は同じです。AIは間違いを犯しますが、それは、AIが悪意を持っているからではありません。問題が起こるのは、人間がAIの使い方を誤っているからです。
ですから、それに対処するのは、悪意を持つ人間を相手にする場合よりは、ずっと容易なはずです。賢く利用することが重要なのです。
* * *
この続きは幻冬舎新書『「超」創造法 生成AIで知的活動はどう変わる?』でお楽しみください。