https://news.yahoo.co.jp/byline/kazuhirotaira/20230313-00340867
チャットGPTなどの生成AIの広がりは、事実関係や倫理を逸脱した情報が広がることを心配しているようだ。結局は、現段階では、最終的には人間の判断力が必要だということのよう。
~以下抜粋~
チャットGPTは、とかくその「万能さ」が喧伝され、そこに「知性」を投影してしまいがちだ。だが、「知性」の中核となるべき価値判断能力の部分は「空洞」だ。
チョムスキー氏らの指摘は、チャットGPTの回答ぶりから、「知性」よりも、むしろ有害な「思考停止」や「規範への従属」の影が浮かんでくる、ということのようだ。
チョムスキー氏らは寄稿の中で「盗用」という表現を使っている。チャットGPTのような生成AIをめぐっては、学習データとして使われたネット上のコンテンツの著作権侵害を指摘する声がある。
チャットGPTなどの生成AIの広がりは、事実関係や倫理を逸脱した情報が膨張していくリスクも意味する。
文章の意味や真偽、事柄の因果関係などは判断していないため、しばしば虚偽の内容や奇異な文章を出力する、「幻覚」と呼ばれる現象が起きる。