WEB世界

岩波書店の雑誌『世界』のWebマガジン

MENU

〈特別公開〉対談 わかりたいヒトとわかったふりをするAI

※『世界』2023年7月号収録の記事を特別公開します

 

何が革新的なのか

川添 OpenAI(オープンAI)が開発したChatGPT(チャットGPT)がたいへん話題になっています。この対話型AIの何が革新的なのか。私が考えるに、次の三つが挙げられます。

一つはきわめて自然な文章を生成できること。機械に自然な言葉を生成させようとする試みは以前からありましたが、文法的にも文章の流れ的にも、ここまで成功した例はないと思います。

それから、あたかも人間の質問の意図を理解しているかのように見えること。私自身は過去の著作の中で、AIが人間の言葉の意図を理解するのはすごく難しいだろうと言ってきましたが、チャットGPTはかなりうまくいっているように見えます。

そして三つ目が、様々な要求に対応できることです。単におしゃべりの相手になるだけではなく、「翻訳して」と言ったら翻訳してくれるし、数学の問題を解かせたり、プログラムを書かせたりすることもできる。小説を書くのに使う人もいます。数年前までは、それぞれのタスクに応じたシステムを個別につくる必要がありました。それをひとつのシステムの中でこなせるようになったというのも注目を集めている理由だと思います。

今井先生はどうお考えでしょうか。AI時代の教育に関する講演の動画を拝見したのですが、日本語の文章を翻訳させたり、算数の問題を解かせたり、研究室でさまざまな実験をなさっていますね。

今井 はい。やっぱりこれだけ幅広く使われるようになったのは、手軽さのおかげだと思います。一昔前は、プロンプト(指示)をプログラミング言語で書く必要があり、ふつうの人にはちょっとハードルが高かったのですが、いまはもう自然言語で書くだけで答えてくれる。だから小学生でも質問できたりするわけです。

ただ私は、ホントに素人考えですが、チャットGPTといえど、結局はものすごくよくできた「ELIZA」に過ぎないのでは、とも思っています。ELIZAというのは初期の言語処理プログラムで、対話型AIの原型と言ってもよいかもしれないですが、人間による問いの意味も、思考も、もちろん理解していませんでした。

川添 ELIZAは、パターン・マッチの規則を数多く持っていて、人がキーボードに打ち込んだ質問のパターンに合わせて答えを返すものですね。なかでも「セラピスト」という設定のプログラムが人気を呼んで、人間だと思い込んで会話をする人もいたそうです。簡単なオウム返しの回答が多いところが、事務的なセラピストのイメージにむしろマッチしていたとか。

今井 ELIZAと同様に、チャットGPTは一個一個の単語の意味など全然わからないし、わかろうとしない。出力される答えの精度が、ELIZAが考案された一九六六年には想像もできなかったほどに高まっているだけで、もともとのアイディアとしては同じといえるのではないかと。

相手の要求をわかっているようにふるまう、それがものすごくうまい機械。そんな印象です。

川添 チャットGPTについては、なぜうまくいっているのか、厳密なメカニズムがまだ不明なので、やっぱり気持ち悪いところがあります。

とはいえ、わかっている範囲でざっと説明してみますと、チャットGPTは主に二つの要素から成り立っています。一つは、「次の単語」を予測する大規模言語モデル。チャットGPTの無料版のベースになっているのがGPT−3.5で、この三月に有料で公開されたのがGPT−4です。いずれもニューラルネットワーク(神経細胞の働きを模した数理モデル)で、ネット上から取得したものすごい量の文章のデータから、「この単語列の次にはどんな単語がくるか」を学習しています。つまり人間の書いた文章における単語列の出現確率についての情報を膨大にもち、それをもとに自然言語の文を生成できるようになっている。

それに加えて、チャットGPTの成立の背景には、人間のフィードバックによる強化学習も関わっています。これはもともと、GPT−3が有害な文章を生成してしまう問題への対策として考案されたものです。この手法では、まず人間が用意した「こういうプロンプトが来たらこう答えたらいいですよ」というお手本を利用してGPTをファインチューニング(微調整)します。その次に、そのモデルが出してくる答えに対して人間が「これは良い」とか「良くない」などといったフィードバックを与え、さらにそれをもとに、モデルが自ら出した答えを自分で評価・ランキングできるようにし、出てくる文章が「人間にとって望ましいもの」に近づくよう強化学習をしていきます。

 

人間の言葉との違いは

川添 このように、チャットGPTの基盤には、自然な単語の列を生成する側面と、人間が「良い」と判断しそうな答えを追求する側面の二つがあるようです。

前者は、単語をうまく数珠つなぎにしてゆくものなので、言語学では形態論とか、統語論(文法)のレベルに相当すると言えそうです。それに対して後者は語用論、つまり具体的な文脈の中で人間が言葉に込めた意図を理解し、言葉を適切に使用するレベルに関わっています。重要なのは、そこには言葉と現実世界を結ぶ「意味論」のレベルが入っていない、ということです。単語を自然に並べることと、人間の意図に沿った答えを出すことが、いびつに組み合わさった感じです。

そして、それだけでなぜかうまくいっていて、先生がおっしゃる〝記号接地〟などがありません。そういった意味で、人間の言語とはかなり違っているように思います。ここが、すごくおもしろいなと思うと同時に、気持ちの悪いところでもあります。

今井 そうですね。人間の言葉とのいちばんの違いは、やっぱり学習の仕方だと思います。記号接地問題とは、具体的な感覚と抽象的な記号体系がどうつながっているのかを明らかにしようとするものですが、人間は、基本的にものごとを感覚に接地しないと学習できません。ふつうの言葉だったら適切なインプットがあればふつうに習得できるのですが、言葉の中には非常に抽象的な概念もあります。

たとえば数を指す言葉を私たちはごく日常的に使っていますね。でも、実際に見たり手にとったりできるのは、五つのリンゴとか、三個のアメとかであって、数そのものは見ることができない。具体的な物体への注意や認識をそぎ落として透明にしたのが数なのです。

赤ちゃんが「1」という数を、外れなく使えるようになるまでには一年くらいかかるそうです。「1」から「2」までいくのにも同じくらいの時間がかかる。ところが1、2、3くらいまでいくと、あとは比較的簡単に学んでゆける。幼いうちは「4」以上になってくると「たくさん」のような量でしかとらえられないのですが、言葉を学ぶことで、「100」と「101」は違うと区別できるようになる。具体的におはじきを数えて確認しなくても、それらが同じでないと認識するようになります。

また、人間の赤ちゃんがかなり早い段階から、たとえば人間と他の動物とを「別の生き物」として区別していることを示す研究もあります。早くからごく大ざっぱな弁別はできており、あとは言葉を獲得することによって新たな概念を獲得し、どんどん弁別を進化させ、体系化していく。人間の学びにはそういう側面があります。その際、容易に学べる、イヌとかコップとかいうようなモノの名だけではなく、数とか色、愛といった抽象概念まで帰納と類推で時間をかけて学ぶ。子どもはたとえばどこまでが赤でどこからがピンクか、自分で発見するわけです。

川添 よく「ロボットが知性をもつには身体が必要だ」といわれますが、言葉の理解という面では、身体だけでも不十分ということですね。

今井 はい。いちばんのとっかかりは、五感による知覚的な弁別かもしれませんが、そこから推論によって、単独の記号の意味だけではなく、記号全体が織りなすネットワークも、文法も、自分で発見していく。三歳から五歳にもなると、子どもはもうかなり立派な知識体系を築いています。やはり自分で発見するから、理解し、納得できる。私はそうやって記号の体系を発見する過程まで含めて「記号接地」だと考えています。これは、AIの専門家の方々がおっしゃる記号接地とはだいぶ違っているかもしれません。

川添 今おっしゃった意味での記号接地は、AIにとってはハードルが高そうですね。AI研究者の中でも必ずしも見解が一致しているわけではないと思いますが、世の中には「本の画像を見て『本』という言葉を出力できる」とか「本をとってと言われたロボットが本をもってきてくれる」といった振る舞いができることを記号接地と考えている人もいるようです。

 

チャットGPTは「ウォーター事件」以前

川添 お話をうかがっていて思い出したのは、先生が『ことばの発達の謎を解く』で言及されていたヘレン・ケラーのエピソードです。ヘレンはサリバン先生から指文字を教わって、ケーキを出されたらc-a-k-eと手のひらに綴ることはできるようになる。でもその段階で「モノには名前がある」とか、「cakeが言葉である」と理解していたわけではなく、物体から得られた刺激に反応して指文字を綴っていただけだった。それがある日、ポンプから出る冷たい水に触れながらw-a-t-e-rという指文字を教えられることで、「water」という言葉が実際の水を表すことを悟った。ここでは、「言葉は何かを表すものである」という認識をもつということがカギになってくるわけですね。

今井 そうそう、チャットGPTはあのウォーター事件の前の状況にあると思います。

川添 ヘレン・ケラーの学習過程は、いまのAIを理解する上で示唆的なエピソードだと思います。いまのAIは、「水」という言葉と実在の水の関係が、「猫」という言葉と実在の猫との関係と同じであると理解しているかどうか不明です。つまり、言葉に対するメタな認識を本当に持てているかどうか、まだわかっていない。

今井 ええ。そうしたことを私たちはインサイト、「洞察」と呼んでいますが、チャットGPTなり類似のシステムがインサイトを持てるのかと言うと、やはり持っている「ふりができる」というところではないでしょうか。

川添 仮に持てたとしても、少なくとも人間のインサイトとは異なるでしょうね。チャットGPTは、推論の課題はかなりうまく解けるようになってきています。「こういう問題を解いてください。解く過程でどのような推論がなされたかも教えてください」と言ったら、あたかも論理的に一つひとつ考えていったかのような答えを出してくれる。

でも、それを見て「あ、チャットGPTはこんなふうに推論してるんだ」と受けとっていいかというと、そうとは限らない。先ほどお話ししたように、あくまで、今までに学習した人間の言葉の中で次になにが来やすいかとか、人間がいいと思うのはどんな答えかなどというデータを手がかりにしているので、チャットGPT自体が答えた通りの推論がその内部で起きているとは限らないんですね。そこがいま、混同されていると思います。

今井 そう、それは人間固有の推論にすぎない――人間が、自分たちのやっていることを投影しているだけなんです。

川添 意図の理解もそうですね。チャットGPTの行動だけを見れば、私たちの意図を理解しているように見えるし、今後ますますその面が充実してゆくかもしれませんが、人間が「意図を理解している」ときは、やはり文化的な慣習や常識に当てはめて、言葉で与えられた情報以外にもすごくたくさんの知識を動員してそこに至っている。

しかしチャットGPTは今のところ、基本的に言葉の世界の中で閉じているんですよね。もちろん最近では画像が扱えるようになりましたし、今後はその他の情報も扱えるようになるでしょう。ただし、今のチャットGPTが、言葉の世界で閉じているにもかかわらず、あたかも私たちの身体感覚や常識を経験しているかのようなアウトプットをしてくるという事実は注目に値すると思います。

 

育現場で禁止すべきか?

今井 記号接地しないでここまで言葉をつかえるのか、という点では本当にびっくりしました。最初に知ったのはチャットGPTが一般公開された二〇二二年の冬頃で、こういうことを最初に教えてくれるのは学生たちです。で、私に教えてくれる前に、あの人たちはちゃっかり活用しています(笑)。英語の論文を読む課題を翻訳させてみたり。

新学期が始まって、各大学がレポート対策をはじめ、チャットGPTの使用に関する声明を出しています。

川添 私は教育現場の現状については十分知らないのですが、個人的な経験から言えば、学生の頃に自分で書いた文章に先生からフィードバックをもらい、文章をブラッシュアップしていくという過程を経て今の仕事ができるようになったと思っています。もし私の若い頃にチャットGPTがあり、それを使って論文や作文を書いていたら、今持っているようなスキルはまったく身につかなかっただろうと。

今井 ですね。洞察とか直観って、そうしたプロセスの経験がないと身につかないものでしょう。成功した体験だけでなく、間違い、失敗も含めていろんな状況で積み重ねることで知の構造であるスキーマができてくるし、身体の一部になる。だからこそ必要な時に取り出せる、生きた知識になるわけです。

チャットGPTに課題をやらせたら、課題を提出するという目的は達成できるかもしれませんが、プロセスをすっとばして結果だけを見るやりかたでは、洞察も直観も絶対に育たない。

それに関して面白い記事を読みました。NHKウェブニュースで、ある小学生が提出した『ハリー・ポッター』の読書感想文が手書きの状態で掲載されているのですが、とても五年生の書く内容とは思えない。それで先生が訊いてみると、チャットGPTを使ったことがわかったというのです。まずこのとき、先生が子どもを叱らなかったのは素晴らしいと思います。

川添 頭ごなしに怒ったりはしなかったんですね。

今井 頭の固い人だと、「自分で書かないとダメでしょう」と叱ると思うんです。でも、きっとチャットGPTを試してみる子どもたちの多くは、悪いことをしたとは思っていない。おもしろい道具があると、遊び心や好奇心で手を伸ばしたのでしょう。それに対してただ怒るだけでは、子どもたちは傷つくし、納得もできないと思います。

ただその先生は、書き方を写すだけでも学びになるから、ともコメントされていて、それは認知の仕組みから言って一〇〇パーセントありません。

川添 なるほど、書き写しても勉強にはならない(笑)。

今井 読書感想文ではなりませんね。ただ、書き写すことで勉強になる場合もあります。たとえばプロの棋士が勉強するときに、過去の対局棋譜を全部自分でたどることがあるそうです。初代竜王でもある島朗九段がご著書の中で書かれていました。

島さんは、羽生世代の少し上の代、当然AI世代以前の方ですが、当時からコンピュータのデータベースは使われていた。それで、とにかく昔の棋譜を徹底的に写す、空でたどれるようになるまで頭に入れる。「暗記」という言葉を使っておられました。でもそれは、暗記を目的にしているわけではない。一手一手、意味を考えて考え抜いて。

川添 なんでこの手を指したんだろうと。

今井 そうやって考え抜いた結果、最初から最後まで暗記して、再現できるようになったら、それはもちろん自分の身体の一部になるはずです。でも、楽するために書き写すだけでは勉強にはなりません。チャットGPTがどういう「意図」でこの文を書いたのか、と本当につぶさに考えながら写してゆくのなら、チャットGPTのスタイルは学べるかもしれませんが……。

川添 今井先生は授業なり大学教育の場でチャットGPTを規制するべきとお考えですか?

今井 いや、規制しても意味がないと思います。どうせ使う人は使うでしょう。いくらでも抜け道は考えられるし、人間はやっぱり、規制されると破りたくなるものです。

そうすると問題は、チャットGPTを使って書かれたレポートなり課題なりを、こちらが一つひとつチェックできるかどうかですよね。文章をそのままフィードしてチャットGPTに「あなたが書きましたか」と訊いても、過去の対話の記録を持っていないと答えたりする(笑)。時間がかかるし、自分の時間をそんなことに使いたくありません。

基本的に私は、相手は大学生なのだから、勉強は自分のためにやるということは理解しているはずで、自己責任で付き合うように言えばいいと考えています。チャットGPTを使って学問が身につかず損するのは自分だし、楽ができてよかったと思えるならそれでもいいのかもしれない。部分的に使うなら明記するように言っていますが、罰則を設けて禁止するのは、なによりも自分がいちばんされたくないことだから、信条としてやりたくないんです。新学期のゼミで、時間をとってそういうことを話しました。

 

AIの「後ろ」には人間がいる

今井 学生には、川添先生が書かれた最近の「言語学バーリ・トゥード」の記事(『UP』二〇二三年四月号)を読むようにとも言ったんです。チャットGPTが誤情報を吐き出すことにショックを受ける人間がいる、その点に着目して創作されていましたね。

川添 あの記事を書いたのは今年の二月で、チャットGPTが誤答をすることがまだそれほど認識されていなかったんです。それでチャットGPTに嘘を教えられたと怒っている人がいることにインスパイアされて、「言語モデルに人生を狂わされた男」という近未来の物語をつくりました。

チャットGPTの嘘をどう考えるかは、大事なポイントだと思います。今後、チャットGPTとは異なる方法で言葉を生成するAIも出てくるかもしれませんが、現状では、基本的に機械学習による開発が進んでいます。これは原則として「帰納による推論」なので、つねに正しい出力をすることは原理的に不可能です。精度がどれほど上がっても、間違いが完全にゼロになることはありません。

そういうわけで、きわめて信頼のおけるシステムであっても、間違いをする可能性はあると考えておいたほうがいいでしょう。運が悪ければ、ごくまれにしか起こらない間違いが大事な局面で出てくるかもしれない。少なくとも社会で使ってゆくためには、重要な間違いには人間が気づかなくてはいけないと思います。

今井 そのとおりです。だから、自分の知らない分野で頼りにすると火傷をしかねない。自分がざっと斜め読みして間違いをピックアップできるくらいの知識をもっていれば、いろいろと活用できると思いますが。

あともう一つ、AIの帰納推論が間違っているという以前に、データベースそのものに誤情報が入っている、つまりデータをフィードする人間が間違っている場合もあります。

先日、ある弁理士さんとお話しした際に、こんなことをおっしゃっていました。きょうび、特許取得を考えるクライアントさんは自分でもある程度事前に勉強してくるそうなんですね。ところが、たとえば著作権法と商標法を混同していたり、まったく間違ったことを堂々と指摘したりする方が増えているそうなんです。それは、両者を混同した人が書いたブログなりnote(ノート)なりを読んで、どうも間違ったまま覚えている。それでもしそのクライアントさんがさらに自分でもネットに投稿したら……。

川添 誤情報がまた一つ増える。

今井 そんなふうに、間違ったことがどんどん再生産されていく。そして、そのデータから学習するチャットGPTも当然間違いをおかし続けます。他方で世の中には、川添先生も言われたように「チャットGPTが言ってるんだから間違いない」と考える人もいるわけで、そうすると誤認識を拡大させる循環ができてしまう。

宿題で楽をするのとは違って、ビジネス、あるいは行政・司法手続きの重要な場面に関しては、自己責任では済まされないかもしれない。なにが間違っていてなにが正しいのか、社会として判別できなくなる危険性はあると思います。

川添 チャットGPTのように自律的に考えているかのように見えるAIの裏にも、何らかの形で人間による制御が働いている、つまり後ろに人がいるということを認識しておきたいですね。チャットGPTはあくまで人間が書いた文章のデータから学習し、人間のフィードバックに基づいて出力をランクづけして、そのふるまいをコントロールするものだからです。

そうしたコントロールが必要になったのは、先ほども述べた通り、過去のモデルがたびたび有害な文章を生成していたからです。差別的、あるいは卑猥な言葉が飛び出すようでは使えないので、人間のフィードバックによってうまく防いでいるのが今の状況だと思います。しかし逆に言えば、人間次第で悪いほうに導くこともできるわけです。

今井 本当に、後ろに人がいるのかと思えるほど、答えがさっと修正されることがあります。私のチームが広島県と開発した、学力の躓きがどこから生まれるのかをはかる「たつじんテスト」の問題もチャットGPTに解かせてみたのですが、ほとんど不正解でした。文章題までいかない数学の問題でも正答できなかった。

それを研究室でおもしろがって、いろいろな訊き方で試していたら、次の日には正答できるようになっていたんです。いまおっしゃったように、チューニングの結果なのかもしれない。でも、概念を理解したわけではないので、GPT−4になるとまた同じ間違いをしていました。

川添 どんな珍回答がみられたのでしょう。

今井 たとえば「6%は次のどれと同じですか」という問題で、選択肢として「6割」「6割の10分の1」「6割の100分の1」「以上のどれでもない」の四つを与えました。これは中学生向けの「たつじんテスト」に私が入れた問題で、中学生の正答率は約六割です。

チャットGPTの答えを見てみると、「6%は100分の6と表現できます」。これは正しい。さらに「6割は60%なので」と、ここも合っています。そのあと「だから6%は6割の100分の1になります」、と着地する。

川添 うーん。聞いただけでは納得してしまいそうな……。

今井 間違ったことをもっともらしく言いますよね(笑)。だから、直観が育っていない子どもに便利なところだけを見せて、チャットGPTに訊けばなんでもわかる、そうしたマインドを育ててしまうのは危険です。

かといって禁止して取り締まればいい、という発想は教育現場にはなじまないと私は思っています。教室でできる最善のことは、どういう失敗をするか、皆でそれを経験することではないでしょうか。

川添 そうですね。ただ、これからさらなるチューニングによって、あからさまな失敗を目にすることは減っていくかもしれません。今井先生も言われたように、チャットGPTはスキルと直観のある人にとっては、仕事を大幅に効率化してくれる道具になり得るけれども、そうでない人にとっては諸刃の剣です。今後、両者の格差はどんどん広がっていくでしょう。これからの教育には、それを埋めていく役割があると思います。

たとえば、言語処理の関係者からすれば、「チャットGPTに嘘を教えられた」とショックを受けている人がいること自体がショックなんです。それは、チャットGPTをはじめとする言語モデルの基本的な仕組みや、そこから生まれる文章がどんなものか、一般ユーザーに伝わっていないということを意味しているからです。

 

脅威論と万能論のあいだで

今井 新しいテクノロジーが現れると、それをどんどん使おうとする人が出てきます。AIの議論でも、車の運転を引き合いに、エンジンの仕組みをエンジニアのように知らなくても運転はできる、AIだって中身がどうなっているかわからなくても使えるだろう―そう主張する人がいます。それは一理あるし、どちらかというと開発側の人は、それでみんなの利便性が高まればいいと考える傾向が強い。

でも、そうやって、仮に運転免許も練習も不要になって自動運転が普及したときにどうなるか。万が一の事態、本当に予測不可能な事態は常に起こり得ます。でも、AIは、今までのデータがあることしか対処できないわけで、その局面でAIにすべてを任せたら死ぬしかない。車に乗っている人は運転の仕方さえ知らないのだから。

人間が運転する社会より交通事故の確率が減るならAIに任せた社会のほうがいい、という人はそれでもいるでしょう。ただ私は直感的に、どうせ死ぬなら最後は自分でハンドル握って、責任をもって死にたい。そうした責任のありかたは、法律論だけでなくひろく社会で議論していくべきなのかもしれません。

川添 そうですね。私は、人々がチャットGPTを使う流れは、もう止められないと思います。小学生であっても、ネットにつなげれば使えるわけですから。

でも、原則に立ち戻るといいますか、チャットGPTがあろうがなかろうが、「教育とは本来なにをする場か」を踏まえて、AIの使い方を考えるべきなのかなと思います。

これは教育だけではなく、個人レベルの話でもいえることではないかと。AIに仕事をとられることを脅威として感じるだけではなく、「待てよ、私はこの仕事をすることで、どういうふうに世の中と関わりたかったのだろう」と、ちょっと引いて考えてみる。いまの状況は、そのきっかけを与えてくれている気がします。

今井先生が著書のなかで引用されていた、中世史研究の阿部謹也さんの言葉を今回読み返して感銘を受けました。「素質とは目にした事柄をたやすくつかむ能力であり、修練とは持って生まれた才能を耕し尽くすことであり、学習とは賞賛に値する生き方をしながら、日々の行いを学知と結合させることを意味する」と。

AIに振り回されるのではなくて、本来の目的を見つめ直したうえでAIをどう使うのか、考える時期に来ているのではないでしょうか。

今井 そうですね。上手に使っている人は、使える時と絶対に使っちゃいけない時をしっかりわかっています。

私は、翻訳はわりと使えるかなあと思っています。でもそれは翻訳家さんの仕事がなくなる、ということではない。自分で書いた英語論文の日本語訳を下訳としてやらせて、その上でチェックし、推敲するという手順にすれば使える―そういう技術だと思います。創作ではどうでしょうか。

川添 チャットGPTの創作をおもしろがる人がいれば、それはそれでいいと思います。結局、商業的な創作の場合、人から求められるかどうかが大事ですから。

ただ私は使うつもりはないし、チャットGPTにしろ他人が書いた文章にしろ、自分から出てきたのではない言葉を自分の名前で発表することには抵抗があります。そういうのって、他人が用意した原稿を読む政治家みたいな感じで、「本心で言ってないんだろうな」と感じてしまう(笑)。ただ、好むと好まざるとにかかわらず、今後は人間の手によらない創作物がどんどん入り込んでくるでしょう。

今井 私は最近、人が話しているのを聞いていて、あ、この人は記号接地ができている、できていない、という観点で評価するようになってきました。ただの受け売りを言っているだけか、使っている材料は自分がソースではなく、他者の書いた本やネット情報であっても、自分で推論をしてつないでいっているのか。後者の人はたぶん、記号接地ができている。だけど秘書が用意した原稿を読んでいるだけの人はそれを理解できているとはいえない。こんなふうに見るようになったのも、チャットGPTで遊ぶようになってからです(笑)。

川添先生がおっしゃったように、教育とはなんなのか、より根本的に、理解するとはどういうことなのか。そうした本質を考えないまま推進したり、法整備を急いだりするのは、社会全体がチャットGPTに振り回されているようで悪手に思えます。

(聞き手:本誌編集長 堀 由貴子、編集部 近藤望寧)

 

タグ

著者略歴

  1. 今井むつみ

    慶應義塾大学環境情報学部教授。専門は認知科学、言語心理学、発達心理学。著書に『言語の本質』(秋田喜美氏との共著、中公新書)、『算数文章題が解けない子どもたち』(岩波書店)、『ことばの発達の謎を解く』(ちくまプリマ―新書)ほか。

  2. 川添 愛

    言語学者、作家。専門は言語学、自然言語処理。著書に『ふだん使いの言語学』(新潮選書)、『ヒトの言葉 機械の言葉』(角川新書)、『聖者のかけら』(新潮社)、『働きたくないイタチと言葉がわかるロボット』(朝日出版社)ほか。

閉じる