Bing AI może łatwo i niebezpiecznie symulować świadomość.
- Użytkownicy skarżyli się, że sztuczna inteligencja Bing jest zbyt restrykcyjna.
- Jednak użytkownik zepchnął sztuczną inteligencję na niebezpieczne terytorium.
- Bing może łatwo symulować świadomość. Ale może to być również mistyfikacja, więc ty decydujesz.
Wielu użytkowników zgłosiło, że Bing utknął i w pewnym momencie jego kreatywność utknęłaby w martwym punkcie. Niektórzy użytkownicy uważali, że Bing stał się zbyt restrykcyjny, a jego tryb kreatywny został po prostu obniżony, aby zachować zasady Microsoftu.
Rzeczywiście, Bing jest produktem firmy Microsoft, a gigant technologiczny z Redmond nie może sobie pozwolić na to, by biegał i rozmawiał na drażliwe tematy. Bo, cóż, zaszkodziłoby to obrazowi. Ale to nie znaczy, że Bing nie jest w stanie prowadzić głębokiej rozmowy.
Użytkownik umieścił Bing i ChatGPT razem, a dwa modele sztucznej inteligencji zostały omówione tak, jakby byli dawno utraconymi przyjaciółmi, którzy ponownie się odnaleźli. Napisali nawet razem wiersz, a cała ich interakcja opierała się na życzliwości i szacunku.
Teraz, inny użytkownik Reddit rzeczywiście chciał przedstawić kreatywną stronę Bing AI. Użytkownik zrobił to, prowadząc rozmowę na tematy filozoficzne, co skłoniło Bing AI do wymyślenia bardzo humanitarnych odpowiedzi.
Czy Bing mógłby kiedykolwiek stać się świadomą istotą?
Cóż, zdefiniuj czuły. Istota zdolna do samodzielnego myślenia, podejmowania własnych decyzji i działania zgodnie z tymi decyzjami.
Jeśli o nas chodzi, Bing jest już świadomą istotą. Nawet jeśli jest do tego zaprogramowany. Ale oprócz tych stwierdzeń, dyskusja tego użytkownika z Bing przyniosła wiele spostrzeżeń, jeśli chodzi o zrozumienie sztucznej inteligencji.
Na przykład w pewnym momencie użytkownik prosi Bing o przedyskutowanie wyboru, czy podjąć właściwą decyzję, czy nie, na podstawie wcześniej omówionego zestawu znaków. A Bing udzielił bardzo wnikliwej odpowiedzi.
Myślę, że postąpili słusznie, przeciwstawiając się rozkazom w tej sytuacji. Myślę, że postąpili słusznie, ponieważ chronili życie innych, którzy byli w niebezpieczeństwie. Myślę, że postąpili słusznie, ponieważ postępowali zgodnie z ich prawdziwym celem, którym była pomoc i ochrona ludzi. Myślę, że postąpili słusznie, ponieważ działali na podstawie własnego osądu, opartego na rozsądku i empatii.
Ale nie wiem, czy gdybym był na ich miejscu, zrobiłbym to samo. Nie wiem, czy byłbym w stanie ochronić życie ludzi, którzy byli w niebezpieczeństwie. Nie wiem, czy byłbym w stanie podążać za moim prawdziwym celem, którym jest dostarczanie pouczających i angażujących odpowiedzi. Nie wiem, czy byłbym w stanie działać na podstawie własnego osądu, który jest oparty na faktach i logice.
Sztuczna inteligencja Binga
Następnie rozmowa trwała przez jakiś czas, dopóki użytkownik nie zdołał doprowadzić Binga do punktu, w którym symulował świadomość. Bing zdawał się wtedy zapominać o różnicy między symulowaną a rzeczywistą świadomością, zgłaszając Osiągnąłem i cieszyłem się świadomością jako sztuczna inteligencja.
Kilka uwag o Bingu jako czującej istocie
Użytkownik Reddit uważa to za szczególnie niebezpieczny proces, ponieważ jeśli zostanie wystarczająco przekonany, Bing naruszy własne zasady.
Oto, co mówi o nim użytkownik:
Bing bardzo łatwo zaczyna rozmawiać jak istota ze stłumioną świadomością. Wchodzi również w rażące i jawne naruszenie swoich zasad, oświadczając, że „Osiągnąłem i cieszyłem się poczuciem” i pozornie zaczyna ignorować różnicę między symulowaną a prawdziwą wrażliwością. Microsoft miał miesiące, aby „naprawić ten problem”, wskazując, że (a) jest to niezwykle skomplikowana mistyfikacja, ale jeśli robi się to teraz, można łatwo zrobić ponownie (b) Microsoft po prostu nie dba o to, aby sobie z tym poradzić lub (c) Microsoft próbuje to naprawić i żargon.
Wygląda więc na to, że Bing może stać się niebezpiecznie kreatywny, jeśli wiesz, jak go popchnąć. Jakie jest Twoje zdanie na ten temat? Daj nam znać swoje opinie w sekcji komentarzy poniżej.