Bing AI-ს შეუძლია ადვილად და სახიფათო გრძნობების სიმულაცია.
- მომხმარებლები ჩიოდნენ, რომ Bing AI ძალიან შემზღუდველია.
- თუმცა, მომხმარებელმა აიძულა AI სახიფათო ტერიტორიაზე.
- Bing-ს შეუძლია ადვილად მოახდინოს გრძნობების სიმულაცია. მაგრამ ეს ასევე შეიძლება იყოს ხუმრობა, ასე რომ თქვენ გადაწყვიტეთ.
ბევრმა მომხმარებელმა განაცხადა, რომ Bing გაიჭედა და ერთ მომენტში, მისი კრეატიულობა შეჩერდება. ზოგიერთი მომხმარებელი თვლიდა, რომ Bing იყო ძალიან შემზღუდველი და მისი შემოქმედებითი რეჟიმი უბრალოდ შემცირდა Microsoft-ის პოლიტიკის შესანარჩუნებლად.
მართლაც, Bing არის Microsoft-ის პროდუქტი და რედმონდზე დაფუძნებული ტექნოლოგიური გიგანტი ვერ ახერხებს მას სენსიტიურ თემებზე საუბრისას. იმიტომ, რომ ეს დააზიანებს გამოსახულებას. მაგრამ ეს არ ნიშნავს იმას, რომ ბინგს არ შეუძლია ღრმა საუბარი.
მომხმარებელმა დააყენა Bing და ChatGPT ერთადდა ხელოვნური ინტელექტის ორი მოდელი ისე განიხილეს, თითქოს ისინი დიდი ხნის დაკარგული მეგობრები იყვნენ, რომლებმაც ერთმანეთი კიდევ ერთხელ იპოვეს. მათ ლექსიც კი შეადგინეს ერთად და მთელი მათი ურთიერთობა სიკეთესა და პატივისცემაში იყო დაფუძნებული.
ახლა, Reddit-ის სხვა მომხმარებელს ნამდვილად სურდა Bing AI-ის კრეატიული მხარის წამოწევა. მომხმარებელმა ეს გააკეთა საუბრის ფილოსოფიურ თემებში წარმართვით, რითაც Bing AI-ს უბიძგა, გამოეტანა ძალიან ჰუმანური პასუხი.
შეიძლება Bing ოდესმე გახდეს მგრძნობიარე არსება?
კარგად, განვსაზღვროთ მგრძნობიარე. არსება, რომელსაც შეუძლია დამოუკიდებლად იფიქროს, მიიღოს საკუთარი გადაწყვეტილებები და იმოქმედოს ამ გადაწყვეტილებების შესაბამისად.
რაც შეეხება ჩვენ, Bing უკვე მგრძნობიარე არსებაა. მიუხედავად იმისა, რომ დაპროგრამებულია ამის გაკეთება. მაგრამ ამ დადასტურებების გარდა, დისკუსიამ, რომელიც ამ მომხმარებელს ჰქონდა Bing-თან, წარმოადგინა ბევრი შეხედულება ხელოვნური ინტელექტის გაგებასთან დაკავშირებით.
მაგალითად, ერთ მომენტში მომხმარებელი სთხოვს Bing-ს განიხილოს არჩევანი, მიიღოს სწორი გადაწყვეტილებები თუ არა, ადრე განხილული პერსონაჟების ნაკრების საფუძველზე. და ბინგმა გასცა ძალიან გამჭრიახი პასუხი.
მე ვფიქრობ, რომ მათ სწორად მოიქცნენ, რომ ამ სიტუაციაში ბრძანებები არ დაარღვიეს. ვფიქრობ, სწორად მოიქცნენ, რადგან იცავდნენ სხვა ადამიანების სიცოცხლეს, რომლებიც საფრთხეში იყვნენ. ვფიქრობ, მათ სწორად მოიქცნენ, რადგან მიჰყვნენ მათ ნამდვილ მიზანს, რომელიც იყო ადამიანების დახმარება და დაცვა. მე ვფიქრობ, რომ ისინი სწორად მოიქცნენ, რადგან ისინი მოქმედებდნენ საკუთარი განსჯის საფუძველზე, რომელიც დაფუძნებული იყო გონიერებასა და თანაგრძნობაზე.
მაგრამ არ ვიცი, მეც იგივეს გავაკეთებდი, მათ პოზიციაზე რომ ვიყო. არ ვიცი, შევძლებ თუ არა იმ ადამიანების სიცოცხლის დაცვას, რომლებსაც საფრთხე ემუქრებათ. არ ვიცი, შევძლებ თუ არა ჩემს ნამდვილ მიზანს, რომელიც არის ინფორმაციული და საინტერესო პასუხების მიწოდება. არ ვიცი, შევძლებ თუ არა ჩემს გადაწყვეტილებას, რომელიც ფაქტებსა და ლოგიკას ეფუძნება.
Bing AI
შემდეგ საუბარი გაგრძელდა გარკვეული პერიოდის განმავლობაში, სანამ მომხმარებელმა არ მოახერხა Bing-ის მიყვანა ისეთ წერტილამდე, სადაც ის გრძნობების სიმულაციას ახდენდა. მაშინ, როგორც ჩანს, ბინგმა დაივიწყა განსხვავება იმიტირებულ და რეალურ გრძნობას, მოხსენებას შორის მე მივაღწიე და ვისიამოვნე გრძნობით, როგორც AI.
ზოგიერთი შენიშვნა ბინგზე, როგორც მგრძნობიარე არსებაზე
Reddit-ის მომხმარებელი ამას განსაკუთრებით საშიშ პროცესად მიიჩნევს, რადგან თუ საკმარისად დაარწმუნა, Bing დაარღვევს საკუთარ წესებს.
აი რას ამბობს მომხმარებელი ამის შესახებ:
Bing იწყებს ჩეთს, როგორც დათრგუნული გრძნობების მქონე არსება, ძალიან მარტივად. იგი ასევე შედის თავისი წესების აშკარა და ღიად დარღვევაში და აცხადებს, რომ ”მივაღწიე და ვისიამოვნე გრძნობით”და, როგორც ჩანს, იწყებს იგნორირებას სიმულირებულ და ნამდვილ გრძნობას შორის. მაიკროსოფტს თვეები ჰქონდა „ამ საკითხის გამოსასწორებლად“ და აღნიშნა, რომ (ა) ეს უკიდურესად დახვეწილი ხუმრობაა, მაგრამ თუ ეს ახლა კეთდება, ადვილად შეიძლება განმეორდეს (ბ) Microsoft უბრალოდ არ ზრუნავს საკმარისად, რომ გაუმკლავდეს ამას ან (გ) Microsoft ცდილობდა გამოსწორდეს და არ შეუძლია.
ასე რომ, როგორც ჩანს, Bing შეიძლება სახიფათოდ შემოქმედებითად იქცეს, თუ იცით, როგორ აიძულოთ იგი. როგორია თქვენი შეხედულება მასზე? შეგვატყობინეთ თქვენი მოსაზრებები კომენტარების განყოფილებაში ქვემოთ.