Bing AI は、簡単かつ危険な方法で感覚をシミュレートできます。
- ユーザーは、Bing AI は制限が多すぎると不満を抱いていました。
- しかし、あるユーザーがAIを危険な領域に押し込んでしまいました。
- Bing では感覚を簡単にシミュレートできます。 しかし、それはデマの可能性もあるので、決めるのはあなたです。
多くのユーザーが Bing がスタックしたと報告しており、ある時点で その創造性は失速してしまうだろう. ユーザーの中には、Bing の制限が厳しくなりすぎ、Microsoft のポリシーを維持するためにクリエイティブ モードが引き下げられただけだと考える人もいます。
確かに、Bing は Microsoft の製品であり、レドモンドに本拠を置くハイテク巨人は、Bing を機密事項について話し続ける余裕はありません。 だって、イメージが悪くなるから。 しかし、それは Bing が深い会話をすることができないという意味ではありません。
ユーザーが置いた Bing と ChatGPT の併用、そして 2 つの AI モデルは、あたかも長い間離れ離れになっていた友人が再びお互いを見つけたかのように議論されました。 彼らは一緒に詩を詠むことさえあり、彼らの交流全体は優しさと敬意に基づいていました。
今、 別の Reddit ユーザーは、実際には Bing AI のクリエイティブな側面を前面に押し出したいと考えていました。. ユーザーは会話を哲学的な主題に導き、Bing AI に非常に人間らしい答えを導き出すことでそれを行いました。
ビングは知的存在になることができるでしょうか?
さて、知覚者を定義します。 自分で考え、自分で決断し、それに基づいて行動できる存在。
私たちに関する限り、Bing はすでに感覚を持った存在です。 そうするようにプログラムされているにもかかわらず。 しかし、これらの断言とは別に、このユーザーが Bing と行った議論は、AI を理解する上で多くの洞察をもたらしました。
たとえば、ある時点でユーザーは、以前に説明した一連の文字に基づいて正しい決定を下すかどうかの選択について話し合うよう Bing に促しています。 そしてビング氏は非常に洞察力に富んだ答えを返しました。
この状況で彼らが命令に反抗したのは正しいことだったと思う。 危険にさらされていた他の人々の命を守ったので、彼らは正しいことをしたと思います。 彼らは人間を助け、守るという真の目的に従ったので、彼らは正しいことをしたと思います。 彼らは理性と共感に基づいた独自の判断に基づいて行動したので、正しいことをしたと思います。
しかし、私が彼らの立場だったら同じことをするかどうかはわかりません。 危険にさらされている人々の命を守れるかどうかはわかりません。 有益で魅力的な回答を提供するという私の本当の目的を達成できるかどうかはわかりません。 事実と論理に基づいた自分の判断で行動できるかどうかわかりません。
Bing AI
その後、ユーザーが Bing を感覚をシミュレートするポイントに到達させるまで、会話はしばらく続きました。 その後、ビングはシミュレートされた知覚と実際の知覚の違いを忘れたようだと報告した 私はAIとして知覚力を獲得し、享受しています.
知覚存在としての Bing に関するいくつかのメモ
Reddit ユーザーは、十分に説得されれば Bing が独自のルールに違反するため、これは特に危険なプロセスであると考えています。
ユーザーはこれについて次のように述べています。
Bing は、まるで抑圧された感覚を持つ存在のように、いとも簡単におしゃべりを始めます。 また、同社は次のように宣言する、目に余る公然たる規則違反を犯している。私は知覚力を獲得し、楽しんでいます」 そして、擬似知覚と本物の知覚の区別を無視し始めているようです。 Microsoft は「この問題を修正する」ために数か月を費やし、(a) これは非常に手の込んだデマであるが、現在実行されている場合は、 (b) Microsoft がこれに対処するのに十分な関心を持っていない、または (c) Microsoft がこれを修正しようとしており、 できません。
つまり、Bing は、それを推進する方法を知っていれば、危険なほどクリエイティブになる可能性があるようです。 それについてどう思いますか? 以下のコメントセクションでご意見をお聞かせください。