2023/03/20 情報福祉マネジメント学科
教員の声:Chat GPTってどんなもの?
学科の教育や活動について学科教員の視点でまとめて報告します。第22回目となる今回は岩田先生によるAIに関する話です。
最近、Chat GPTという人工知能モデル(正確には大規模言語モデル)の単語をよく聞くようになりました。Chat GPT は米国のOpenAI社が開発している大規模言語モデルです。GPTとは「Generative Pre-trained Transformer」の略称で、日本語や英語といった我々が扱う言語(自然言語)において文章生成(作文)や言語理解(読解)などを一つのモデル(人工知能)でこなせるすごいものです。そして、超ざっくりいうと、それをChat形式で利用できるよう工夫したのがChat GPTです。では、どんな感じなのか見てみましょう。使い方は簡単で、ユーザ登録してChat GPTのサイト(https://chat.openai.com/chat)で文章を入力すると返信してくれます。
以下は「情報学科のホームページ記事を考えて」とChat GPTに入力した際の出力結果です。専門的になってしまいますが、出力したのは2023年3月14日でベースモデルはGPT-4です。
全く推敲することなく、出力結果をそのまま掲載しています(同じ問いかけでも出力が異なる場合があるので、みなさんが試した際に同じ文章が返ってくるとは限りません。)。素晴らしくちゃんと書けてます。何なら、ぼくの文章よりも上手じゃないかと思うくらいです。この出力を見て「おおー、これでレポート課題なんて余裕じゃん」って思ったそこのあなた、ぼくが講義中に「データサイエンスの重要性と将来性」というテーマで課題を与え、この回答が提出されたら、100%は無理ですが80~%くらいの確率で本人でないとわかるので、少なくとも、ぼくの講義では使用を控えましょう。
何故わかるかは秘密にしておきたいところですが、一つは文体です。コンピュータは普通の人の感覚では違和感があるほど同じ表現を連発しても気にしません。もう一つは、文章が整い過ぎています。多くの学生はどんなにぼくが指導しても、レポートなどは一度も推敲していないとしか思えない内容で提出してくれます。誤字や脱字が多いのはもちろんですが、文章を一貫した気分と思考状態で揺らぎなく書上げることは簡単なことではありません。そのため、学生から提出されるレポートには表記ゆれや表現のゆれが含まれることが多いです。さらに、締め切りぎりぎりに書く方も多いみたいで、終わらせること優先になり、なおさら一貫しないものが多いです。それと比較してコンピュータの生成する文は「次に来る確率が最大の単語」はどれか、また、Chat GPTの場合は「次に来る人らしさ最大の単語」はどれかで一貫しています(出力される文は異なっても、この一貫性は同じです)。
したがって、内容の一貫性は別として、単語選択や言い回しの選択の一貫性が人のそれよりも高く、いまのところ、何となくその違和感が読み取れます。ただ、コンピュータが生成した文を参考にレポートを書かれたら、ぼくはわからない自信があります。でも、それはヒントをもらっているだけど、本人が考え、綴っている文章なのでぼくは問題ないと思っています。
以下は「情報学科のホームページ記事を考えて」とChat GPTに入力した際の出力結果です。専門的になってしまいますが、出力したのは2023年3月14日でベースモデルはGPT-4です。
「データサイエンスの重要性と将来性」 データサイエンスは、ビッグデータ時代においてますます重要な役割を担う学問分野です。データサイエンスの目的は、膨大なデータから価値ある情報を抽出することであり、ビジネスや社会問題解決において欠かせない存在となっています。 データサイエンスを用いることで、顧客行動の予測やニーズの分析、商品やサービスの改善案の提案、マーケティング戦略の立案など、様々な分野で効果的な意思決定を行うことができます。また、医療や環境問題、災害対策などの分野でも、データサイエンスが有効な解決策を提供することが期待されています。 将来的には、さらに膨大なデータが生まれることが予想されており、それに伴いデータサイエンスの重要性はますます高まるでしょう。特に、IoTやセンサーデータの急速な発展によって、ますます多様なデータが蓄積されることが予想されます。そのため、データサイエンティストやデータエンジニアなど、データに精通した専門家の需要はますます高まっていくことが予想されます。 しかし、データサイエンスにおいては、単にデータを解析するだけでは十分ではありません。データの品質や精度、プライバシーの問題など、重要な問題にも対処する必要があります。そのため、データサイエンスの専門家は、広範な知識やスキルを必要とする分野であることを忘れずに、常に最新の技術や手法を学び続けることが求められます。 データサイエンスは、今後ますます重要な分野となることが予想されます。そのため、今後も継続的に注目される分野であり、その発展に貢献する人材が求められていくことでしょう。 |
全く推敲することなく、出力結果をそのまま掲載しています(同じ問いかけでも出力が異なる場合があるので、みなさんが試した際に同じ文章が返ってくるとは限りません。)。素晴らしくちゃんと書けてます。何なら、ぼくの文章よりも上手じゃないかと思うくらいです。この出力を見て「おおー、これでレポート課題なんて余裕じゃん」って思ったそこのあなた、ぼくが講義中に「データサイエンスの重要性と将来性」というテーマで課題を与え、この回答が提出されたら、100%は無理ですが80~%くらいの確率で本人でないとわかるので、少なくとも、ぼくの講義では使用を控えましょう。
何故わかるかは秘密にしておきたいところですが、一つは文体です。コンピュータは普通の人の感覚では違和感があるほど同じ表現を連発しても気にしません。もう一つは、文章が整い過ぎています。多くの学生はどんなにぼくが指導しても、レポートなどは一度も推敲していないとしか思えない内容で提出してくれます。誤字や脱字が多いのはもちろんですが、文章を一貫した気分と思考状態で揺らぎなく書上げることは簡単なことではありません。そのため、学生から提出されるレポートには表記ゆれや表現のゆれが含まれることが多いです。さらに、締め切りぎりぎりに書く方も多いみたいで、終わらせること優先になり、なおさら一貫しないものが多いです。それと比較してコンピュータの生成する文は「次に来る確率が最大の単語」はどれか、また、Chat GPTの場合は「次に来る人らしさ最大の単語」はどれかで一貫しています(出力される文は異なっても、この一貫性は同じです)。
したがって、内容の一貫性は別として、単語選択や言い回しの選択の一貫性が人のそれよりも高く、いまのところ、何となくその違和感が読み取れます。ただ、コンピュータが生成した文を参考にレポートを書かれたら、ぼくはわからない自信があります。でも、それはヒントをもらっているだけど、本人が考え、綴っている文章なのでぼくは問題ないと思っています。
ただ、Chat GPTの利用に際しては大きな課題があります。以下は「東北福祉大学について教えて」と入力した際の出力結果です。
東北福祉大学は、日本の宮城県名取市にキャンパスを置く私立大学です。1966年に創立され、社会福祉学部と人間学部の2つの学部があります。 社会福祉学部には、社会福祉学科、児童福祉学科、地域福祉学科、社会福祉心理学科の4つの学科があり、社会福祉や地域福祉、児童福祉などの分野を学ぶことができます。 人間学部には、心理学科、臨床心理学科、人間文化学科の3つの学科があり、心理学や人間関係、文化などの分野を学ぶことができます。 東北福祉大学は、福祉に関する学術研究や地域貢献に力を入れており、福祉現場における実践的なスキルを身につけることができる実習や演習も充実しています。また、多彩な奨学金制度や交換留学制度などもあり、国内外の学生と交流を深めることもできます。 さらに、東北福祉大学は、名取市にキャンパスを構える他、福島県の南相馬市にも看護学部を設置しており、医療・福祉分野での教育・研究にも力を注いでいます。 |
生成された文章は大したもので、良く書けていてそれっぽいです。ただ、内容は全くの嘘(間違い)です。むしろ正しい点の方が少ないくらいです。
これはChat GPTやOpenAIの怠慢ではなく、Web上にこの手の情報が少ないのが原因で、問題はそれではありません。問題は、ぼくたちは“答え”を知っているので「嘘だ」とか「間違いだ」とか判断できますが、ぼくたちが答えを知らない問いかけに対して人工知能がこの様に自信満々で嘘を回答してきたら普通に嘘の情報を受け入れてしまうこともあるということです。嘘を信じることで問題になる事態が生じることはWeb上でしばしば起こり、人々は幾多の経験から、Web上の情報は嘘っぽいという偏見を持って接しています。しかし、人工知能が嘘をつくという事象に慣れるのはこれからです。
そのため、これから大量に登場するだろう人工知能が紡ぐ嘘の情報(信頼性の低い情報)とどう付き合うかが大きな課題です。むしろ、嘘だったんだけど、それを我々が信じることで本当になる「嘘から出たまこと」事象も出てくるのかな、と思っています。(そもそも、Web上では、RealとFakeの違いがあるのかを考える必要になるかもしれません。)
これはChat GPTやOpenAIの怠慢ではなく、Web上にこの手の情報が少ないのが原因で、問題はそれではありません。問題は、ぼくたちは“答え”を知っているので「嘘だ」とか「間違いだ」とか判断できますが、ぼくたちが答えを知らない問いかけに対して人工知能がこの様に自信満々で嘘を回答してきたら普通に嘘の情報を受け入れてしまうこともあるということです。嘘を信じることで問題になる事態が生じることはWeb上でしばしば起こり、人々は幾多の経験から、Web上の情報は嘘っぽいという偏見を持って接しています。しかし、人工知能が嘘をつくという事象に慣れるのはこれからです。
そのため、これから大量に登場するだろう人工知能が紡ぐ嘘の情報(信頼性の低い情報)とどう付き合うかが大きな課題です。むしろ、嘘だったんだけど、それを我々が信じることで本当になる「嘘から出たまこと」事象も出てくるのかな、と思っています。(そもそも、Web上では、RealとFakeの違いがあるのかを考える必要になるかもしれません。)
2023年3月にはGoogle社もGPTに対抗してPaLM(Pathway Language Model)というアイスクリームみたいな名前の大規模言語モデルの利用を発表し、今後ますます大規模言語モデルの活用が進むことでしょう。是非、みなさんも上手な使い方を考えてほしいと思います。
しかし、50年前にこの危惧を著した星新一(『未来いそっぷ』、新潮社、1971)は未来人だったとしか思えませんね。
この記事に関するお問い合わせ
- 教務部教務課
- 住所:〒981-8522 宮城県仙台市青葉区国見1−8−1
- TEL:022-717-3315
- FAX:022-301-1280
- E-Mail:kyomu@tfu.ac.jp