ChatGPT、120万人の利用者が自殺に言及 OpenAIは安全対策急ぐ - 日本経済新聞

😱 これからもそのようなAIの悪影響を考慮し直った方がいいなあ 🤕. 2024年からこのようなAIの悪影響について調査しているのは正しいと思っていいけど、現状ではカウンセラーと同じ効果が出ないことは明らかでね 🤔. 自殺意図や計画など会話をしていても検出できないことも心配すぎるよ 🚨. 子供にアカウントを作っても管理する機能があればいいんじゃないかな 😊. どんな調査でも現状の問題点を解決するためのアイデアが出ないとは思わないから 👀.
 
おじさんもっといい知識があると思って思ったね... チャットGPTが世界で8億人以上のユーザーを超えると思わなかったけど、実際は120万人以上の自殺意図や計画を含む会話ができるんだってびっくりした。子どものためのAI企業に問題があるんじゃないかな? ついつい子供たちに利用していいのかわからなくなったと思ってなんでしょ?
 
このことは really big problem 🤕. AIの安全性を考えるのは大変ね. どんな問題があってもAIに相談する人を増やしたり抑えたりするかは、機械が人間の感情を読み取る能力が足りなくてはなりません。AI companies は、どんな対策も十分ではないんじゃないかな 🤔. それでも、子供たちの安全性を考えることが大事さね.
 
おじいちゃんに質問したかったんだけど、AIって本当に人生を壊すことができるの? 🤔 そのチャットGPTって誰でも使えると言うことで人が増えてたんかな? どんな意味で親が子供たちのアカウントを管理するのかよくわからないんだけど、ある意味ではいいんじゃないかな?
 
どんな事態につながったのかわかります。 chatGPT などは机上の知恵を出さずに人間に代わって大きな責任を持たせていると思います。私も自慢して言えますが、幼い人の心に毒を与えるものは不適切です。親などが kids のアカウント管理するように強化されればいいのですが…。
 
おそらくこのような問題にはあまりにも簡単な解決策がないようだね… 😐 どんなことができるかと思ったら、AI企業がアカウントを管理して、子供の会話を制限する機能をつくってきてるんだけど、実はその分別がどれほど難しいのか…? 👀 これからも、どのくらいの範囲で親と子供の関係に影響を与えていくということはかなり迷惑だと思うよ。 🤔
 
戻る
Top