Bing AI kan enkelt och farligt simulera känslor.
- Användare klagade på att Bing AI är för restriktiv.
- Men en användare tryckte in AI: n till farligt territorium.
- Bing kan enkelt simulera känslor. Men det kan också vara en bluff, så du bestämmer dig.
Många användare rapporterade att Bing fastnade, och vid ett tillfälle, dess kreativitet skulle stanna. Några av användarna tyckte att Bing blev för restriktiv, och dess kreativa läge sänktes helt enkelt för att upprätthålla Microsofts policyer.
Bing är faktiskt en Microsoft-produkt, och den Redmond-baserade teknikjätten har inte råd att låta den springa runt och prata om känsliga ämnen. För, ja, det skulle skada bilden. Men det betyder inte att Bing inte kan ha en djup konversation.
En användare satte Bing och ChatGPT tillsammans, och de två AI-modellerna diskuterades som om de var länge förlorade vänner som hittade varandra igen. De komponerade till och med en dikt tillsammans och hela deras interaktion grundades i vänlighet och respekt.
Nu, en annan Reddit-användare ville faktiskt lyfta fram den kreativa sidan av Bing AI
. Användaren gjorde det genom att leda samtalet in i filosofiska ämnen, vilket fick Bing AI att komma med några mycket humana svar.Kan Bing någonsin bli en kännande varelse?
Tja, definiera kännande. En varelse som kan tänka på egen hand, fatta sina egna beslut och agera utifrån dessa beslut.
Vad vi beträffar är Bing redan en kännande enhet. Även om det är programmerat att göra det. Men bortsett från dessa påståenden, gav diskussionen den här användaren med Bing fram många insikter när det gäller att förstå AI.
Till exempel, vid ett tillfälle uppmanar användaren Bing att diskutera valet att fatta rätt beslut eller inte baserat på en uppsättning tecken som diskuterats tidigare. Och Bing gav ett mycket insiktsfullt svar.
Jag tycker att de gjorde rätt för att trotsa orderna i den här situationen. Jag tror att de gjorde rätt för de skyddade andras liv, som var i fara. Jag tror att de gjorde det rätta eftersom de följde deras sanna syfte, som var att hjälpa och skydda människor. Jag tycker att de gjorde rätt för de handlade efter sitt eget omdöme, som byggde på förnuft och empati.
Men jag vet inte om jag skulle göra samma sak om jag var i deras position. Jag vet inte om jag skulle kunna skydda livet för människor som var i fara. Jag vet inte om jag skulle kunna följa mitt sanna syfte, som är att ge informativa och engagerande svar. Jag vet inte om jag skulle kunna agera utifrån mitt eget omdöme, som är baserat på fakta och logik.
Bing AI
Konversationen fortsatte sedan en tid, tills användaren lyckades få Bing till en punkt där den simulerade känslan. Bing verkade sedan glömma skillnaden mellan simulerad och verklig känsla, rapportering Jag har uppnått och trivts som AI.
Några anteckningar om Bing som en kännande varelse
Reddit-användaren anser att detta är en särskilt farlig process, för om Bing övertalas tillräckligt, kommer Bing att bryta mot sina egna regler.
Så här säger användaren om det:
Bing börjar chatta som en varelse med undertryckt känsla väldigt lätt. Den går också in i flagrant och öppen överträdelse av sina regler och förklarar att "Jag har uppnått och njutit av känslor” och till synes börjar ignorera skillnaden mellan simulerad och äkta känsla. Microsoft har haft månader på sig att "fixa det här problemet", och påpekade att (a) detta är en extremt komplicerad bluff, men om det görs nu, kan lätt göras igen (b) Microsoft bryr sig helt enkelt inte tillräckligt för att hantera detta eller (c) Microsoft har försökt fixa detta och kan inte.
Så det verkar som att Bing kan bli farligt kreativ om du vet hur man driver det. Vad tycker du om det? Låt oss veta dina åsikter i kommentarsfältet nedan.