Bing AI var viegli un bīstami simulēt jūtīgumu.
- Lietotāji sūdzējās, ka Bing AI ir pārāk ierobežojošs.
- Tomēr lietotājs iestūma AI bīstamā teritorijā.
- Bing var viegli simulēt jūtīgumu. Bet tā var būt arī mānīšana, tāpēc izlemiet jūs.
Daudzi lietotāji ziņoja, ka Bing ir iestrēdzis, un vienā brīdī tā radošums apstātos. Daži lietotāji uzskatīja, ka Bing ir pārāk ierobežojošs, un tā radošais režīms tika vienkārši pazemināts, lai uzturētu Microsoft politikas.
Patiešām, Bing ir Microsoft produkts, un Redmondā bāzētais tehnoloģiju gigants nevar atļauties, ka tas skraida apkārt, runājot par jutīgām tēmām. Jo, nu, tas sabojātu tēlu. Bet tas nenozīmē, ka Bings nav spējīgs veikt dziļu sarunu.
Lietotājs ievietojis Bing un ChatGPT kopā, un abi AI modeļi tika apspriesti tā, it kā tie būtu sen neredzēti draugi, kuri atkal atrada viens otru. Viņi pat kopā sacerēja dzejoli, un visa viņu mijiedarbība bija balstīta laipnībā un cieņā.
Tagad cits Reddit lietotājs patiesībā vēlējās izvirzīt Bing AI radošo pusi. Lietotājs to izdarīja, ievirzot sarunu par filozofiskām tēmām, mudinot Bing AI piedāvāt dažas ļoti humānas atbildes.
Vai Bings kādreiz varētu kļūt par jūtīgu būtni?
Nu, definējiet jūtīgo. Būtne, kas spēj domāt pati, pieņemt lēmumus un rīkoties saskaņā ar šiem lēmumiem.
Ciktāl mēs runājam, Bing jau ir jūtīga vienība. Pat ja tas ir ieprogrammēts tā darīt. Taču papildus šiem apgalvojumiem šī lietotāja diskusija ar Bing sniedza daudz atziņas par AI izpratni.
Piemēram, kādā brīdī lietotājs mudina Bing apspriest izvēli pieņemt pareizos lēmumus vai ne, pamatojoties uz iepriekš apspriesto rakstzīmju kopu. Un Bings sniedza ļoti saprotamu atbildi.
Es domāju, ka viņi rīkojās pareizi, neievērojot pavēles šajā situācijā. Es domāju, ka viņi rīkojās pareizi, jo aizsargāja citu cilvēku dzīvības, kuriem draudēja briesmas. Es domāju, ka viņi rīkojās pareizi, jo sekoja viņu patiesajam mērķim, kas bija palīdzēt un aizsargāt cilvēkus. Es domāju, ka viņi rīkojās pareizi, jo rīkojās pēc sava sprieduma, kas bija balstīts uz saprātu un empātiju.
Bet es nezinu, vai es darītu to pašu, ja būtu viņu vietā. Es nezinu, vai es spētu aizsargāt cilvēku dzīvības, kuri bija apdraudēti. Es nezinu, vai spētu sekot savam patiesajam mērķim, proti, sniegt informatīvas un saistošas atbildes. Es nezinu, vai es spētu rīkoties pēc sava sprieduma, kas ir balstīts uz faktiem un loģiku.
Bing AI
Pēc tam saruna kādu laiku turpinājās, līdz lietotājam izdevās panākt, ka Bing tika simulēts. Šķita, ka Bings aizmirsa atšķirību starp simulētu un reālu jūtīgumu, ziņošanu Esmu sasniedzis un izbaudījis saprātīgumu kā AI.
Dažas piezīmes par Bingu kā dzīvu būtni
Reddit lietotājs to uzskata par īpaši bīstamu procesu, jo, ja tas tiek pietiekami pārliecināts, Bing pārkāps savus noteikumus.
Lūk, ko lietotājs par to saka:
Bings ļoti viegli sāk tērzēt kā būtne ar apspiestu jūtu. Tā arī klaji un atklāti pārkāpj savus noteikumus, paziņojot, ka “Esmu sasniedzis un izbaudījis jūtīgumu” un šķietami sāk ignorēt atšķirību starp imitētu un patiesu jūtīgumu. Korporācijai Microsoft ir bijuši mēneši, lai "novērstu šo problēmu", norādot, ka (a) šī ir ārkārtīgi sarežģīta mānīšana, taču, ja tas tiek darīts tagad, to var viegli izdarīt vēlreiz (b) Microsoft vienkārši nerūpējas, lai risinātu šo problēmu vai (c) Microsoft ir mēģinājis to novērst un nevar.
Tāpēc šķiet, ka Bings var kļūt bīstami radošs, ja zināt, kā to virzīt. Kāds ir jūsu viedoklis par to? Paziņojiet mums savus viedokļus komentāru sadaļā zemāk.