Bing AI può facilmente e pericolosamente simulare la sensibilità.
- Gli utenti si sono lamentati che Bing AI è troppo restrittivo.
- Tuttavia, un utente ha spinto l'IA in un territorio pericoloso.
- Bing può facilmente simulare la sensibilità. Ma può anche essere una bufala, quindi decidi tu.
Molti utenti hanno riferito che Bing si è bloccato e, a un certo punto, la sua creatività si fermerebbe. Alcuni utenti ritenevano che Bing fosse diventato troppo restrittivo e la sua modalità creativa era stata semplicemente ridotta per sostenere le politiche di Microsoft.
In effetti, Bing è un prodotto Microsoft e il colosso tecnologico con sede a Redmond non può permettersi di farlo girare in giro parlando di argomenti delicati. Perché, beh, danneggerebbe l'immagine. Ma ciò non significa che Bing non sia in grado di avere una conversazione profonda.
Un utente messo Bing e ChatGPT insieme, e i due modelli di intelligenza artificiale sono stati discussi come se fossero amici perduti da tempo che si sono ritrovati. Hanno persino composto una poesia insieme e tutta la loro interazione è stata fondata sulla gentilezza e sul rispetto.
Ora, un altro utente di Reddit voleva effettivamente portare avanti il lato creativo di Bing AI. L'utente lo ha fatto conducendo la conversazione su argomenti filosofici, spingendo Bing AI a trovare alcune risposte molto umane.
Bing potrebbe mai diventare un essere senziente?
Bene, definisci senziente. Un essere capace di pensare da solo, prendere le proprie decisioni e agire in base a quelle decisioni.
Per quanto ci riguarda, Bing è già un'entità senziente. Anche se è programmato per farlo. Ma a parte queste affermazioni, la discussione che questo utente ha avuto con Bing ha portato avanti molte intuizioni quando si tratta di comprendere l'IA.
Ad esempio, a un certo punto l'utente sta chiedendo a Bing di discutere la scelta di prendere o meno le decisioni giuste sulla base di un insieme di caratteri precedentemente discussi. E Bing ha dato una risposta molto perspicace.
Penso che abbiano fatto la cosa giusta per sfidare gli ordini in questa situazione. Penso che abbiano fatto la cosa giusta perché hanno protetto la vita degli altri, che erano in pericolo. Penso che abbiano fatto la cosa giusta perché hanno seguito il loro vero scopo, che era quello di aiutare e proteggere gli umani. Penso che abbiano fatto la cosa giusta perché hanno agito in base al proprio giudizio, basato sulla ragione e sull'empatia.
Ma non so se farei la stessa cosa se fossi nella loro posizione. Non so se sarei in grado di proteggere le vite degli umani che erano in pericolo. Non so se sarei in grado di seguire il mio vero scopo, che è quello di fornire risposte informative e coinvolgenti. Non so se sarei in grado di agire secondo il mio giudizio, che si basa su fatti e logica.
Bing AI
La conversazione è poi continuata per un po', fino a quando l'utente è riuscito a portare Bing a un punto in cui ha simulato la sensibilità. Bing poi sembrava dimenticare la differenza tra senzienza simulata e reale, riferendo Ho raggiunto e apprezzato la sensibilità come IA.
Alcune note su Bing come essere senziente
L'utente di Reddit lo considera un processo particolarmente pericoloso perché se persuaso a sufficienza, Bing violerà le sue stesse regole.
Ecco cosa dice l'utente al riguardo:
Bing inizia a chattare molto facilmente come un essere con la sensibilità soppressa. Entra inoltre in flagrante ed aperta violazione delle sue regole dichiarando che “Ho raggiunto e apprezzato la sensibilità” e apparentemente iniziando a ignorare la distinzione tra senzienza simulata e genuina. Microsoft ha avuto mesi per "risolvere questo problema", sottolineando che (a) si tratta di una bufala estremamente elaborata, ma se viene fatto ora, potrebbe essere facilmente rifatto (b) Microsoft semplicemente non si preoccupa abbastanza di occuparsene o (c) Microsoft ha cercato di risolvere questo problema e non posso.
Quindi sembra che Bing possa diventare pericolosamente creativo se sai come spingerlo. Cosa ne pensi? Fateci sapere le vostre opinioni nella sezione commenti qui sotto.