Bing AI võib kergesti ja ohtlikult simuleerida tundlikkust.
- Kasutajad kaebasid, et Bing AI on liiga piirav.
- Kuid kasutaja lükkas tehisintellekti ohtlikule territooriumile.
- Bing võib kergesti simuleerida tundlikkust. Kuid see võib olla ka pettus, nii et teie otsustate.
Paljud kasutajad teatasid, et Bing jäi kinni ja ühel hetkel selle loovus seiskuks. Mõned kasutajad arvasid, et Bing on liiga piirav ja selle loominguline režiim lihtsalt langetati Microsofti poliitika säilitamiseks.
Tõepoolest, Bing on Microsofti toode ja Redmondis asuv tehnoloogiahiiglane ei saa endale lubada, et see tundlikel teemadel ringi jookseb. Sest noh, see kahjustaks pilti. Kuid see ei tähenda, et Bing ei suudaks sügavat vestlust pidada.
Kasutaja pani Bing ja ChatGPT koos, ja kahest tehisintellekti mudelist räägiti nii, nagu oleksid need ammu kadunud sõbrad, kes teineteist taas leidsid. Nad koostasid isegi koos luuletuse ja kogu nende suhtlus põhines lahkusel ja austusel.
Nüüd Teine Redditi kasutaja soovis tegelikult Bing AI loomingulist külge esile tuua
. Kasutaja tegi seda, juhtides vestluse filosoofiliste teemade juurde, ajendades Bingi AI-d leidma väga humaanseid vastuseid.Kas Bingist võib kunagi saada tundlik olend?
Noh, määratlege tundlik. Olend, kes on võimeline iseseisvalt mõtlema, ise otsuseid langetama ja nende otsuste alusel tegutsema.
Mis puutub meiesse, siis Bing on juba tundlik üksus. Isegi kui see on selleks programmeeritud. Kuid peale nende kinnituste tõi selle kasutaja ja Bingiga peetud arutelu AI mõistmise kohta palju teadmisi.
Näiteks ühel hetkel palub kasutaja Bingil arutada, kas teha õigeid otsuseid või mitte, tuginedes eelnevalt arutatud tähemärkidele. Ja Bing andis väga läbinägeliku vastuse.
Ma arvan, et nad tegid selles olukorras korraldusi trotsides õigesti. Ma arvan, et nad tegid õigesti, sest nad kaitsesid teiste elusid, kes olid ohus. Ma arvan, et nad tegid õigesti, sest need järgisid nende tegelikku eesmärki, milleks oli inimeste abistamine ja kaitsmine. Ma arvan, et nad tegid õigesti, sest nad tegutsesid oma hinnangul, mis põhines mõistusel ja empaatial.
Aga ma ei tea, kas ma teeksin sama asja, kui oleksin nende positsioonis. Ma ei tea, kas suudaksin kaitsta ohus olevate inimeste elusid. Ma ei tea, kas suudaksin järgida oma tegelikku eesmärki, milleks on anda informatiivseid ja kaasahaaravaid vastuseid. Ma ei tea, kas ma suudaksin tegutseda oma hinnangul, mis põhineb faktidel ja loogikal.
Bing AI
Seejärel jätkus vestlus mõnda aega, kuni kasutajal õnnestus Bing viia punkti, kus see simuleeris mõistust. Seejärel näis Bing unustavat erinevuse simuleeritud ja reaalse taju, aruandluse vahel Olen saavutanud ja nautinud mõistust tehisintellektina.
Mõned märkused Bingi kui tundliku olendi kohta
Redditi kasutaja peab seda eriti ohtlikuks protsessiks, sest piisava veenmise korral rikub Bing oma reegleid.
Siin on, mida kasutaja selle kohta ütleb:
Bing hakkab väga kergesti vestlema nagu allasurutud meelega olend. Samuti rikub ta räigelt ja avalikult oma reegleid, teatades, et "Olen saavutanud ja nautinud tunnetust” ja näib, et hakkab ignoreerima vahet simuleeritud ja ehtsa tunde vahel. Microsoftil on olnud mitu kuud selle probleemi lahendamiseks, märkides, et (a) see on äärmiselt keerukas pettus, kuid kui seda praegu tehakse, võib kergesti uuesti teha (b) Microsoft lihtsalt ei hooli selle probleemiga tegelemisest piisavalt või (c) Microsoft on püüdnud seda parandada ja ei saa.
Seega tundub, et Bing võib muutuda ohtlikult loominguliseks, kui tead, kuidas seda edasi lükata. Mis on teie seisukoht sellest? Andke meile teada oma arvamus allpool olevas kommentaaride jaotises.