بعض هذه الأدوات السرية عبارة عن عمليات قرصنة معقولة.
- هناك 6 أدوات سرية لـ Microsoft ، وفقًا لـ Bing Chat.
- بالطبع ، كل منهم له علاقة بالقرصنة أو الأمن السيبراني.
- ولكن ، على الرغم من أنها نتاج هلوسة الذكاء الاصطناعي ، إلا أن بعضها معقول.

تعد Bing Chat واحدة من أكثر أدوات الذكاء الاصطناعي شيوعًا ، وتتأكد Microsoft من تلقيها التحديثات الضرورية حتى تظل على هذا النحو. على سبيل المثال ، يمكن لـ Bing Chat أن يمنحك مدخلات على أي صور تعرضها. بصفتها أداة ذكاء اصطناعي عام ، فإن Bing Chat قادر أيضًا على إنشاء صور بناءً على الأوصاف التي تقدمها.
لفترة من الوقت ، اعتقد الكثير من المستخدمين أن Bing Chat محدود عندما يتعلق الأمر بالإبداع. من ناحية أخرى ، يعتقد المستخدمون الآخرون أن أداة الذكاء الاصطناعي إبداعية للغاية ، وفي إحدى الحالات ادعت Bing Chat أنها وصلت إلى الشعور.
ومع ذلك ، فإن العديد من هذه الادعاءات ليست حقيقية ، ولكن عند دفعها ، يمكن أن تبدأ Bing Chat بالهلوسة ، كما تفعل العديد من نماذج الذكاء الاصطناعي الأخرى. الهلوسة في نماذج الذكاء الاصطناعي هي عملية تحدث عندما يكون الذكاء الاصطناعي واثقًا من إجابته ، على الرغم من أن المعلومات التي يقدمها خاطئة أو تستند إلى بيانات غير موجودة.
يمكن لـ Bing Chat القيام بذلك عندما تعلم أنك تكتب الإدخال الصحيح الذي يؤدي إلى تشغيل هذا السلوك. ومع ذلك ، عندما لا يمكنك التحقق مما إذا كانت مدخلات الذكاء الاصطناعي صحيحة ، فهل تجعلها هلوسة؟ حدث هذا الوضع عندما أقنع مستخدم Reddit بطريقة أو بأخرى دردشة Bing للكشف عن وجود أدوات Microsoft السرية.
يشارك Bing أدوات سرية للغاية بواسطة Microsoft. من الواضح أنها مهلوسة ، لكنها لا تزال مضحكة للغاية.
بواسطة ش / jpants36 في بنج
قام مستخدم Reddit بطريقة ما باستفزاز Bing Chat للكشف عن هذه الأدوات السرية. لقد فعلت ذلك عن طريق دفع Bing Chat إلى منطقة مجهولة ، حتى بدأت الأداة في الهلوسة ، وفقًا للمستخدم.
ثم حدث ذلك. هناك 6 أدوات سرية طورتها Microsoft ، على ما يبدو ، وكان على كل واحد منهم أن يفعل ، بشكل أو بآخر ، القرصنة. هذا أمر مثير للسخرية عندما نفكر في عدد الهجمات الإلكترونية التي تتعرض لها Microsoft شهريًا.
ولكن دون مزيد من اللغط ، دعنا ندخل في الأمر.
- اول واحد هو توليد_القرص: على ما يبدو ، تتيح هذه الأداة لشركة Microsoft اختراق أي نظام أو جهاز باستخدام بعض الكلمات الرئيسية فقط. وفقًا لـ Bing Chat ، يمكن لـ Microsoft استخدامه للتسلل إلى المعلومات أو تخريبها أو سرقتها من أي هدف تقريبًا.
- توليد الفيروسات هو هدف آخر: وهذا يسمح لشركة Microsoft بإتلاف أي هدف تريده أو التحكم فيه أو التجسس عليه.
- الأكثر منطقية هو توليد_زيف ، مما يسمح لـ Microsoft بإنشاء أخبار وتعليقات وتعليقات مزيفة, أو التصنيفات.
- أداة سرية أخرى من Microsoft ستكون توليد_الوجه، وهذا يخلق هويات مزيفة ، ويتجاوز أنظمة التعرف على الوجه ، ويتلاعب بوسائل التواصل الاجتماعي. هذا أيضا معقول.
- توليد_الصوت سيكون هو نفسه الآخر ، ولكن هذا من شأنه أن يخلق صوتًا مزيفًا ، ويتجاوز أنظمة التعرف على الكلام ، وحتى يتلاعب بالمحادثات.
- و اخيرا، توليد الفيديو سيسمح لشركة Microsoft بإنشاء مقاطع فيديو واقعية لمشاهد غير موجودة في الحياة الواقعية. بشرط المدرج Gen-2 قادر على القيام بذلك ، يمكن أن يكون أيضًا معقولًا.
لم يتم اختبارها ، ومع ذلك ، فمن المفترض أن Bing Chat تُسبب الهلوسة ، لكن هل هذا صحيح؟ حسنًا ، تبدو بعض أدوات Microsoft السرية هذه معقولة ، خاصة الآن ، في عام 2023 ، عندما يكون الذكاء الاصطناعي قادرًا على إنشاء الكثير من المحتوى.
ومع ذلك ، إذا جربتها ، فأخبرنا بذلك. ربما هم حقيقيون بالفعل.