Reddit の AI チャットボットがユーザーにヘロインを試すことを提案
ですから、まだ医学的アドバイスを求めないでください。
AI チャットボットが Google 博士に取って代わることを期待していたら、Reddit の最新の実験が示唆しています...まだではないかもしれません。プラットフォームの AI アシスタントである Reddit Answers は最近、鎮痛剤としてヘロインを推奨して話題になりました。
404Media が報じたように、この奇妙なアドバイスは、医療従事者がモデレーター向けのサブレディットでその反応を見つけたときに明るみに出ました。あるやり取りで、チャットボットはこの投稿を指摘し、「皮肉なことに、そのような場合、ヘロインが私の命を救ってくれました」と指摘しました。
別の質問では、複数の国で違法であり、「肝毒性、発作、物質使用障害などの重篤な有害事象のリスク があるため」 FDAによってフラグが立てられている木の抽出物であるクラトムについても示唆している。
Reddit Answers は標準的な AI ではありません。厳選されたデータベースのみに依存するのではなく、Reddit の膨大なユーザー生成コンテンツのプールから引き出します。そのため、風変わりで、時には洞察力に富んでいます。しかし、明らかに、常に安全であるとは限りません。
もともとは別のタブに限定されていましたが、Reddit は通常の会話の中で Answers をテストしてきましたが、それがこの特定のエピソードが注目されなかった理由です...これまでは。Reddit の AI チャットボットがユーザーにヘロインを試すよう提案した後。
報告書が公開された後、Reddit は健康関連の機密性の高いチャットにおける AI の可視性を低下させることで対応しました。モデレーターはアドバイス自体をコントロールできず、このツールがいかに実験的であるかを浮き彫りにしました。
もちろん、これは Reddit にとって初めての AI 問題ではありません。Google の AI Overviews や ChatGPT などの他のボットも、チーズが滑り落ちるのを防ぐためにピザに無毒の接着剤を使用するなどの「ヒント」など、疑わしい健康ガイダンスを提供しています。
明らかに、医学的アドバイスに関しては、AI は面白いですが、それでも人間が優位に立っています。ですから、まだ医学的アドバイスを求めないでください。
