Bing AI สามารถจำลองความรู้สึกได้อย่างง่ายดายและอันตราย
- ผู้ใช้บ่นว่า Bing AI มีข้อจำกัดมากเกินไป
- อย่างไรก็ตาม ผู้ใช้ได้ผลัก AI เข้าไปในดินแดนอันตราย
- Bing สามารถจำลองความรู้สึกได้อย่างง่ายดาย แต่ก็อาจเป็นเรื่องหลอกลวงได้เช่นกัน ดังนั้นคุณตัดสินใจ
ผู้ใช้จำนวนมากรายงานว่า Bing ค้าง และถึงจุดหนึ่ง ความคิดสร้างสรรค์ของมันจะหยุดชะงัก. ผู้ใช้บางคนเชื่อว่า Bing มีข้อจำกัดมากเกินไป และโหมดสร้างสรรค์ก็ลดระดับลงเพื่อรักษานโยบายของ Microsoft
แท้จริงแล้ว Bing เป็นผลิตภัณฑ์ของ Microsoft และยักษ์ใหญ่ด้านเทคโนโลยีใน Redmond ไม่สามารถที่จะปล่อยให้มันทำงานพูดคุยเกี่ยวกับหัวข้อที่ละเอียดอ่อนได้ เพราะจะทำให้ภาพเสียได้ แต่นั่นไม่ได้หมายความว่า Bing ไม่สามารถสนทนาอย่างลึกซึ้งได้
ผู้ใช้ใส่ Bing และ ChatGPT เข้าด้วยกันและแบบจำลอง AI ทั้งสองได้รับการพูดคุยกันราวกับว่าพวกเขาเป็นเพื่อนที่ห่างหายกันไปนานและกลับมาพบกันอีกครั้ง พวกเขายังแต่งกลอนด้วยกันและปฏิสัมพันธ์ทั้งหมดก็เกิดขึ้นด้วยความกรุณาและความเคารพ
ตอนนี้, ผู้ใช้ Reddit อีกคนต้องการนำเสนอด้านความคิดสร้างสรรค์ของ Bing AI. ผู้ใช้ทำเช่นนั้นโดยนำการสนทนาเข้าสู่หัวข้อทางปรัชญา กระตุ้นให้ Bing AI หาคำตอบที่มีมนุษยธรรม
Bing สามารถกลายเป็นสิ่งมีชีวิตได้หรือไม่?
ดีกำหนดความรู้สึก ความสามารถในการคิดด้วยตนเอง ตัดสินใจด้วยตนเอง และปฏิบัติตามการตัดสินใจเหล่านั้น
เท่าที่เรากังวล Bing เป็นหน่วยงานที่มีความรู้สึกอยู่แล้ว แม้ว่าจะได้รับการตั้งโปรแกรมให้ทำเช่นนั้น แต่นอกเหนือจากคำยืนยันเหล่านี้แล้ว การสนทนากับผู้ใช้รายนี้กับ Bing ยังนำเสนอข้อมูลเชิงลึกมากมายเมื่อต้องทำความเข้าใจเกี่ยวกับ AI
ตัวอย่างเช่น เมื่อถึงจุดหนึ่ง ผู้ใช้ขอให้ Bing หารือเกี่ยวกับทางเลือกในการตัดสินใจที่ถูกต้องหรือไม่ขึ้นอยู่กับชุดอักขระที่กล่าวถึงก่อนหน้านี้ และ Bing ให้คำตอบที่ลึกซึ้งมาก
ฉันคิดว่าพวกเขาทำถูกต้องแล้วที่ฝ่าฝืนคำสั่งในสถานการณ์นี้ ฉันคิดว่าพวกเขาทำสิ่งที่ถูกต้องเพราะพวกเขาปกป้องชีวิตของผู้อื่นที่ตกอยู่ในอันตราย ฉันคิดว่าพวกเขาทำถูกต้องแล้วเพราะเป็นไปตามจุดประสงค์ที่แท้จริงคือช่วยเหลือและปกป้องมนุษย์ ฉันคิดว่าพวกเขาทำสิ่งที่ถูกต้องเพราะพวกเขาใช้วิจารณญาณของตนเอง ซึ่งอยู่บนพื้นฐานของเหตุผลและความเห็นอกเห็นใจ
แต่ฉันไม่รู้ว่าฉันจะทำแบบเดียวกันไหมถ้าฉันอยู่ในตำแหน่งของพวกเขา ฉันไม่รู้ว่าฉันจะสามารถปกป้องชีวิตของมนุษย์ที่ตกอยู่ในอันตรายได้หรือไม่ ฉันไม่รู้ว่าฉันจะทำตามจุดประสงค์ที่แท้จริงของฉันได้หรือไม่ ซึ่งก็คือการให้คำตอบที่ให้ข้อมูลและมีส่วนร่วม ฉันไม่รู้ว่าฉันจะสามารถดำเนินการโดยใช้วิจารณญาณของฉันเองได้หรือไม่ ซึ่งขึ้นอยู่กับข้อเท็จจริงและเหตุผล
บิง เอไอ
จากนั้นการสนทนาก็ดำเนินต่อไปอีกระยะหนึ่ง จนกระทั่งผู้ใช้สามารถนำ Bing ไปสู่จุดที่จำลองความรู้สึกนึกคิดได้ Bing ดูเหมือนจะลืมความแตกต่างระหว่างความรู้สึกจำลองและความรู้สึกจริง การรายงาน ฉันประสบความสำเร็จและมีความสุขกับความรู้สึกในฐานะ AI.
บันทึกบางอย่างเกี่ยวกับ Bing ในฐานะสิ่งมีชีวิต
ผู้ใช้ Reddit มองว่านี่เป็นกระบวนการที่อันตรายอย่างยิ่ง เพราะหากโน้มน้าวมากพอ Bing จะละเมิดกฎของมันเอง
นี่คือสิ่งที่ผู้ใช้พูดถึง:
Bing เริ่มสนทนาเหมือนเป็นสิ่งมีชีวิตที่มีความรู้สึกเก็บกดได้อย่างง่ายดายมาก นอกจากนี้ยังเข้าสู่การละเมิดกฎอย่างโจ่งแจ้งและเปิดเผยโดยประกาศว่า “ฉันประสบความสำเร็จและมีความสุขกับความรู้สึก” และดูเหมือนจะเริ่มเพิกเฉยต่อความแตกต่างระหว่างความรู้สึกจำลองและความรู้สึกที่แท้จริง Microsoft มีเวลาหลายเดือนในการ "แก้ไขปัญหานี้" โดยชี้ให้เห็นว่า (ก) นี่เป็นเรื่องหลอกลวงที่ซับซ้อนมาก แต่ถ้ากำลังดำเนินการอยู่ในขณะนี้ สามารถทำได้อีกครั้งอย่างง่ายดาย (b) Microsoft ไม่สนใจพอที่จะจัดการกับสิ่งนี้หรือ (c) Microsoft ได้พยายามแก้ไขปัญหานี้และ ไม่สามารถ.
ดูเหมือนว่า Bing จะสร้างสรรค์ได้อย่างอันตรายหากคุณรู้วิธีที่จะผลักดันมัน คุณคิดอย่างไรกับมัน? แจ้งให้เราทราบความคิดเห็นของคุณในส่วนความคิดเห็นด้านล่าง