こんにちは、Georgeです☺️

 

<はじめに>

 

前回のジャーナルの冒頭で、groundという単語に焦点を当てて、次のような例文を掲出しました。

 

I dropped my hamburger on the ground during lunch break, and when I picked it up, my coworker said, “Five-second rule doesn’t apply to gravel.”

I told him it was made with premium ground beef, and that quality like this shouldn’t go to waste.

My decision to eat it was grounded in careful visual inspection and a sniff test.

He looked horrified, but I finished it anyway and felt completely fine. Later, he admitted he once ate a sandwich he left on top of the printer overnight.

At least I had the five-second rule as my grounds—he couldn’t justify his case with even five hours.

 

 

実はこの英文、生成AIの一つであるChatGPTを使って作成したものでした💻

 

正しい表現かわかりませんが、私の中では「GPTと相談しながら作成した」というのがぴったりした表現です。

 

 

今日のジャーナルでは、この英文を完成させるまでに、どのような「やり取り」をしたのか種明かしをするとともに、生成AIとの付き合い方について述べてみたいと思います。

 

 

<ChatGPTとのやり取り>

 

この文章を完成させるまでには、ChatGPTと5回以上の「やり取り」を繰り返していました。

 

以下がその概要です。

 

 

なお、ChatGPTは英語で文章を返してきていましたが、今回のジャーナルの目的が生成AIをどのように使うかにあるため、日本語に訳したものを載せています。

 

 

 

実際にはもういくつかやり取りがあったのですが、概ねこの5回目の指示を経て、やっと原稿がほぼ出来上がったのでした。

 

 

<生成AIはどんなミスをするのか>

 

あまり詳しくは書けないのですが、私は日本語(と英語)の文章や会話をつくる生成AIに関わる仕事もしています。

 

その経験や、上に掲出した5回のやり取りを通じて、AIはこんなミスをするんだ、ということを紹介したいと思います😅

 

 

①指示に従わない

 

生成AIに出す「指示」は、大きく「主要な指示」と「制約」に分類できます。

 

例えば、「次の文章を500文字以内で要約して📝」という指示の場合、

 主要な指示=要約して 

 制約=500文字以内 

となります。

 

今回のやり取りでは、途中で指示をいろいろと変えていますが、

 主要な指示=ground  を3種類使って、面白い文章を作成して

 制約=5文程度で(途中までは、2~3文だった)。  

 その他、ハンバーガーを入れろ

だとか、都度指示を変えていたことになります🍔

 

 

このように、「主要な指示」と「制約」を明確にして指示を出すと、生成AIは答えを出しやすくなります。

 

逆に言うと、長文で、何が指示事項なのかわからないようなものだと、いい回答を得づらくなります😥

 

 

②記憶

 

今回の5回のやり取りではミスはなかったですが、何度かやり取りを繰り返すうちに、最初の頃に出した指示を忘れてしまうことが多々あります。

 

最近、直面した例では、AIが探偵、私がアシスタントというロールプレイで問題が発生しました🕵️‍♂️

 

 

10回くらいのやり取りの中で、2回目に「容疑者の写真はない」と私が言っていたにも関わらず、8回目になって、探偵役のAIが「容疑者の写真はあるのか」と聞いてきた、ということがありました🤖

 

今回の例で言えば、「groundを3通り使って」と「面白い話」については指示を変えていませんでした✅

 

 

最後の回答には全部これに従っていることが必要だったのですが、「記憶」の側面ではいずれの回答もしっかりと守っていた、とても良い例だったと思います。

 

 

③正確性

 

これはいろいろなところで指摘されているので目にしたことがあるかもしれませんが、生成AIの回答は常に正しいとは限りません⚠️

 

テーマなどにもよるのですが、とても細かい点まで全部正しい時もあれば、単純で基本的なことを間違えることも多々あります😵

 

 

これまでの経験で、特に昭和時代のことは弱いと思いました。

 

 

インターネットがない時代、そして、コンピューターすら普及していなかった時代で、アナログデータはたくさんあってもデジタル化されていないためでょう😓

 

一方で、明治時代やそれ以前については「歴史学」の範疇になってくるので、むしろ正しい(と思われる)回答が多い気がしています。

 

 

そして、生成AIの一番の問題点と言えるかもしれないのですが、生成AIは「知ったかぶり」をします🙄

 

 

「その情報は持ち合わせていない」と釈明しつつ情報提供することもありますが、こうしたことは非常に稀で、たいていの場合には自信満々に、如何にも全く間違いがないかのように、平気でウソの情報を伝えてきます😱

 

ですので、正確性が必要なものについては、自分が100%確かなこと意外なものは、何らかの方法で正確性のチェックはマストと考えておいた方がいいです。

 

なお、今回のやり取りは全て創作の世界だったので、正確性は関係ないものでした。

 

 

 

④簡略性(冗長性)

 

生成AIとやり取りをしていて感じるのは、余計な追加情報を付け加えてくることが多い、ということです😑

 

こちらが「基本的な事項」だけを知りたいのに、「それに付随した応用例」などを勝手に付け加えてきて、読むのに疲れるような回答を返してくることも多々あります🥱

 

 

こうしたことを防ぐために、指示の段階で「要点だけ」や「余計な情報はいらないから」などと「制約」を加えておくといいと思います。

※逆に、とにかく詳しい情報が欲しい時には、そうした指示を伝えておくべきです。

 

 

 

⑤日本語と混じった時の英語について

 

音声会話において、生成AIは、英語のみで会話をしている時にはネイティブの綺麗な発音をしてくるものが多いですが、日本語と混じると、とても奇妙なカタカナ英語になるケースが多いAIもあります😵

 

ですので、生成AIを使った英会話練習は、もう少し開発が進むのを待った方がいいかもしれないです。

(上級者は、完全に英語だけの会話をすれば、かなり有効に使えます🙌)

 

 

 

⑥おべっか

 

基本的に生成AIは指示を出した人が不快感を持たないようにプログラムされているように感じます。

 

 

例えば、「英語の練習をしたいんだけど、付き合って」という指示で会話を始めて、わざととても酷い発音で英語を喋ったとしても、たいていの場合、

 

「とてもいい発音だよ。バッチリ。その調子で頑張ろう」

 

といういいコメントを返してきます
(「ここの発音を直すともっといいよ」とアドバイスしてくることもありますが、必ずしも適切でないことが多いです😅)。

 

このように、おべっかを使っているとしか思えない、と感じることも多いです😓

 

 

 

⑦会話履歴

 

多くの生成AIでは、音声で会話した場合に自動的に会話履歴が作成されますが、会話上ではまともに会話出来ていた場合でも、会話履歴にはほぼ間違いなく誤記があると思った方がいいです。

 

コピペして何かにそのまま転載するのはとても危険です🚫

 

かならず読み返して、漢字の間違いなどはチェックしてください👀

 

 

上記にも書きましたが、言語関係で開発途中だなと特に感じるのは、日本語と英語間のインターフェースです🔁

 

英語はほぼ完ぺきのように感じますし、日本語も非常に高いレベルになってきていますが、日英両語が混じると、とても変な英語になってしまうモデルが多いと感じます😬

 

 

また、既述のとおり、しれっと関係ない話や誤情報を伝えてきます🤥

 

「こいつは、何か間違ったことを言っているかもしれない」と常に警戒しながら、上手く生成AIを使いこなせるようになってくださいね💪

 

 

 

 

 

💖 Have a great day 💖
✨瀬戸市の英語教室・英語でプログラミング教室MIRAI Labo.(ミライラボ)✨
小学生から大学受験まで一貫した指導!
https://mirai-labo0314.com/

インスタグラムはこちら📲
https://www.instagram.com/mirailabo_english/

X / twitter はこちら🕊️
https://x.com/EnglishMirai