AIの思考を少しずつずらしてAIに催眠をかけるように「ジェイルブレイク」した具体例

投稿日:

大規模言語モデル(LLM)を用いたAIは、驚くほど自然な文章やリアルな画像を生成できる能力を備えている一方で、危険なことに回答したり不適切な画像を生成したりできないように、セキュリティロックがかかっていることがほとんどです。しかし、意図的にLLMをだまそうと試みてロックを回避するジェイルブレイク(脱獄)の方法もしばしば話題になります。GoogleのAIチームでコンサルタントを務めた経験もある技術者のマット・ウェッブ氏は、特別なテクニックを使わなくても「ちょっとずつAIの思考をずらす」ことによるジェイルブレイクの例を解説しています。

続きを読む...

Source: GIGAZINE(ギガジン) 最新情報

-その他趣味
-

Copyright© スマホ トレンド(Trend)情報サイト , 2024 AllRights Reserved.