ブログ
ChatGPTの落とし穴
はじめに
実は今月からChatGPTの有料版を使うようになって、本当に便利だ。企画やスライド案など自分ひとりで考えていた内容が色々な案を出してくれて自分一人では辿り着かなかったところを見せてくれる。しかし、使っていると「ん?」って思うところもあるのも事実。
どのようなところに注意が必要なのか、AI超初心者が自分の専門分野からの目線で解説したいと思う。
シンプルにミスがある
「子どもの質問に答えてください」と入れてから疑問を聞くと説明をすごく平易にしてくれる。いつも妻から「あなたの説明は難しい」と言われる僕からすると助かることこの上ない。
ただ、子どもが「鉄って何種類あるの?」と聞こうとしていたので『鉄(Ⅱ)と鉄(Ⅲ)の話か?』と思ったが、よく聞くと「金属は何種類あるの?」と聞きたかったらしい。質問を間違うと当然答えも間違うのでそういったところは注意が必要だ。そして質問を「金属は何種類あるの?」とし、実際聞いてみたところこんな説明にこんな表記があった。
「周期表(ひょうしきひょう)」
当たり前だが間違っている。これは「周期表(しゅうきひょう)」だ。子どもが音読していたのを聞いていただけだったので、「ひょうしきひょう?」となって文面を見たらこうなっていた。漢字がそんなに読めない小学生にこんな書き方をしたら間違っているなんて夢にも思わない。
要するにChatGPTを使うには基礎知識と国語力が必要ということだ。
あくまでChatGPTは参考にするだけで信じてはいけない。僕はよく論文検索するのだが、ChatGPTのおかげでかなり効率が上がった。しかし、出された論文は必ず目を通すようにしている。要約もしてくれるし、おおよそ間違いはないのだが、それでも完全に信用してはいけない。そういう道具だと僕は思う。
ChatGPTは知ったかぶり
ChatGPTを信用してはいけない理由に知識が『記号設置』していないということがある。
『記号設置』
では『記号設置』とは何かというと、知識が感覚や経験まで落とし込まれていることをいう。例えば、「歯を抜く」という言葉を一般のひとと僕が言ったとしよう。「歯を抜く」といった一般のひとは自分が「歯を抜かれる」ことはあっても「歯を抜く」ということがないので「歯を抜く」という感覚はわからないだろう。それに対し、僕は今まで数えきれないほどの歯を抜いてきた。僕が言う「歯を抜く」は歯がどういった構造をして、周囲の組織の構成や実際に「歯を抜く」手順や予後なども色々考えている。
このただの言葉として「歯を抜く」と言っているのではなく、感覚や経験まで落とし込まれた「歯を抜く」と言う言葉だと言うことだ。解像度にかなり差が出る。
このように同じ言葉でも感覚や経験まで落とし込まれることを『記号設置』という。
ChatGPTは身体がないから感覚的に理解することはできないし、経験することもないのでChatGPTの言葉は『記号設置』することはないのだ。つまりChatGPTは圧倒的知識で知ったかぶりをしているに過ぎないのだ。
おわりに
僕自身実際使っていて非常に便利だし、いい道具だと思う。しかし、あくまで道具であり、使い方の問題だという認識も忘れてはいけない。そして、単純に基礎知識がないと間違った方向にグングン進む可能性もあるので、その辺りは注意が必要だなと感じた。
受験勉強がいらなくなるとか言っているひともいるが、それもその言葉の意味によるかなとは思う。どこかの学校に行きたいがための勉強みたいなことはあまり意味がなくなってくるのかもしれない。それはAIが進化すればどこでもハイクオリティで勉強ができるようになるからだ。
しかし、学問は絶対に必要だと僕は思う。
AIに聞けばなんでもわかるから勉強しなくていい世界なんてものは来ない。それが正しいかどうかの判断は人間に委ねられるし、その判断に基礎知識があった方がいいのだ。AIのおかげで基礎知識を蓄えやすくはなるだろうが、基本的な科学的知識や数学的な計算ができないとスピリチュアルな嘘を見抜けなかったりするし、正しい単語の意味や定義がされていないとAIへの質問の精度も下がる。
結局、数学力や国語力など受験勉強レベルのことができることが前提の世界になったというだけのことなのだ。しかし、その前提を超えることができたら圧倒的に前に進めるようになり、その前提を超えることができないと、間違った道をグングン進む可能性があるという差が大きくなりそうな道具ということだ。