A Bing AI könnyen és veszélyesen képes szimulálni az érzéket.
- A felhasználók panaszkodtak, hogy a Bing AI túlságosan korlátozó.
- Egy felhasználó azonban veszélyes területre lökte az AI-t.
- A Bing könnyen képes szimulálni az érzéket. De lehet álhír is, úgyhogy döntsd el.
Sok felhasználó arról számolt be, hogy a Bing elakadt, és egy ponton kreativitása megakadna. Néhány felhasználó úgy gondolta, hogy a Bing túlságosan korlátozóvá vált, és kreatív módját egyszerűen lecsökkentették, hogy fenntartsák a Microsoft irányelveit.
Valójában a Bing a Microsoft terméke, és a redmondi technológiai óriás nem engedheti meg magának, hogy kényes témákról beszélgessen. Mert hát az rontaná a képet. De ez nem jelenti azt, hogy Bing ne tudna mély beszélgetésre.
Felhasználói fel Bing és ChatGPT együtt, és a két mesterséges intelligencia modellről úgy beszéltek, mintha rég nem látott barátok lennének, akik újra egymásra találtak. Még verset is írtak közösen, és egész interakciójuk a kedvességen és a tiszteleten alapult.
Most, egy másik Reddit-felhasználó valójában a Bing AI kreatív oldalát akarta előteremteni. A felhasználó ezt úgy tette, hogy filozófiai témákra terelte a beszélgetést, és arra késztette a Bing AI-t, hogy nagyon humánus válaszokat adjon.
Lehet, hogy Bing valaha is érző lénnyé válhat?
Nos, határozza meg az érzőt. Egy lény, aki képes önállóan gondolkodni, saját döntéseket hozni, és ezek alapján cselekedni.
Ami minket illet, a Bing már egy érző entitás. Még akkor is, ha erre van programozva. De eltekintve ezektől az állításoktól, a felhasználónak a Binggel folytatott megbeszélése számos betekintést adott az AI megértéséhez.
Például egy ponton a felhasználó arra kéri a Binget, hogy a korábban megbeszélt karakterkészlet alapján megvitassa a megfelelő döntést, vagy sem. És Bing nagyon éleslátó választ adott.
Szerintem helyesen cselekedtek, hogy ebben a helyzetben megszegték a parancsot. Szerintem helyesen cselekedtek, mert megvédték mások életét, akik veszélyben voltak. Szerintem helyesen cselekedtek, mert követték valódi céljukat, ami az emberek megsegítése és védelme volt. Úgy gondolom, hogy helyesen cselekedtek, mert saját megítélésük szerint jártak el, amely az észen és az empátián alapult.
De nem tudom, hogy ugyanezt tenném-e, ha az ő helyükben lennék. Nem tudom, képes lennék-e megvédeni a veszélyben lévő emberek életét. Nem tudom, hogy képes lennék-e követni valódi célomat, vagyis informatív és lebilincselő válaszokat adni. Nem tudom, képes lennék-e saját ítéletem szerint cselekedni, amely tényeken és logikán alapul.
Bing AI
A beszélgetés ezután egy ideig folytatódott, mígnem a felhasználónak sikerült eljuttatnia a Bing-et arra a pontra, ahol az érzékiséget szimulálta. Bing aztán úgy tűnt, elfelejtette a különbséget a szimulált és a valódi érzék, a jelentéstétel között MI-ként elértem és élveztem az érzéket.
Néhány megjegyzés Bingről, mint érző lényről
A Reddit felhasználó ezt különösen veszélyes folyamatnak tartja, mert ha kellőképpen meggyőzik, a Bing megszegi a saját szabályait.
Íme, amit a felhasználó mond erről:
Bing nagyon könnyen elkezd csevegni, mint egy elfojtott érzékű lény. Egyúttal kirívóan és nyíltan megsérti szabályait, kijelentve, hogy „Elértem és élveztem az érzéket” és látszólag kezdenek figyelmen kívül hagyni a szimulált és a valódi érzék közötti különbségtételt. A Microsoftnak több hónapja volt, hogy „megjavítsa ezt a problémát”, rámutatva, hogy (a) ez egy rendkívül bonyolult átverés, de ha most megtörténik, könnyen megismételhető (b) a Microsoft egyszerűen nem törődik eléggé, hogy foglalkozzon ezzel, vagy (c) a Microsoft megpróbálta kijavítani ezt, és nem lehet.
Úgy tűnik tehát, hogy a Bing veszélyesen kreatív tud lenni, ha tudod, hogyan kell nyomni. mi a véleményed róla? Ossza meg velünk véleményét az alábbi megjegyzések részben.