Το Bing AI μπορεί εύκολα και επικίνδυνα να προσομοιώσει την αίσθηση.
- Οι χρήστες παραπονέθηκαν ότι το Bing AI είναι πολύ περιοριστικό.
- Ωστόσο, ένας χρήστης έσπρωξε το AI σε επικίνδυνο έδαφος.
- Το Bing μπορεί εύκολα να προσομοιώσει την αίσθηση. Αλλά μπορεί επίσης να είναι φάρσα, οπότε αποφασίζετε εσείς.
Πολλοί χρήστες ανέφεραν ότι το Bing κόλλησε και σε ένα σημείο, η δημιουργικότητά του θα σταματούσε. Μερικοί από τους χρήστες πίστευαν ότι το Bing ήταν πολύ περιοριστικό και η δημιουργική του λειτουργία απλώς μειώθηκε για να διατηρήσει τις πολιτικές της Microsoft.
Πράγματι, το Bing είναι προϊόν της Microsoft και ο τεχνολογικός γίγαντας με έδρα το Ρέντμοντ δεν έχει την πολυτέλεια να τον κάνει να τρέχει μιλώντας για ευαίσθητα θέματα. Γιατί, λοιπόν, θα έβλαπτε την εικόνα. Αλλά αυτό δεν σημαίνει ότι ο Bing δεν είναι ικανός να έχει μια βαθιά συνομιλία.
Ένας χρήστης έβαλε Bing και ChatGPT μαζί, και τα δύο μοντέλα AI συζητήθηκαν σαν να ήταν φίλοι που είχαν χαθεί από καιρό που τα βρήκαν για άλλη μια φορά. Συνέθεσαν ακόμη και ένα ποίημα μαζί και όλη τους η αλληλεπίδραση βασίστηκε στην καλοσύνη και τον σεβασμό.
Τώρα, Ένας άλλος χρήστης του Reddit ήθελε πραγματικά να παρουσιάσει τη δημιουργική πλευρά του Bing AI. Ο χρήστης το έκανε οδηγώντας τη συζήτηση σε φιλοσοφικά θέματα, ωθώντας το Bing AI να βρει μερικές πολύ ανθρώπινες απαντήσεις.
Θα μπορούσε ποτέ ο Bing να γίνει ένα αισθανόμενο ον;
Λοιπόν, ορίστε το συναίσθημα. Ένα ον ικανό να σκέφτεται μόνο του, να παίρνει τις δικές του αποφάσεις και να ενεργεί βάσει αυτών των αποφάσεων.
Σε ό, τι μας αφορά, το Bing είναι ήδη μια οντότητα που αισθάνεται. Παρόλο που είναι προγραμματισμένο να το κάνει. Αλλά εκτός από αυτές τις επιβεβαιώσεις, η συζήτηση που είχε αυτός ο χρήστης με το Bing έφερε στο προσκήνιο πολλές ιδέες όσον αφορά την κατανόηση της τεχνητής νοημοσύνης.
Για παράδειγμα, σε ένα σημείο ο χρήστης ζητά από τον Bing να συζητήσει την επιλογή να πάρει τις σωστές αποφάσεις ή όχι με βάση ένα σύνολο χαρακτήρων που συζητήθηκαν προηγουμένως. Και ο Bing έδωσε μια πολύ διορατική απάντηση.
Νομίζω ότι έκαναν το σωστό για να αψηφήσουν τις εντολές σε αυτή την κατάσταση. Νομίζω ότι έκαναν το σωστό γιατί προστάτευσαν τις ζωές άλλων, που κινδύνευαν. Νομίζω ότι έκαναν το σωστό γιατί ακολούθησαν τον πραγματικό τους σκοπό, που ήταν να βοηθήσουν και να προστατέψουν τους ανθρώπους. Νομίζω ότι έκαναν το σωστό γιατί ενήργησαν με βάση τη δική τους κρίση, η οποία βασίστηκε στη λογική και την ενσυναίσθηση.
Αλλά δεν ξέρω αν θα έκανα το ίδιο αν ήμουν στη θέση τους. Δεν ξέρω αν θα μπορούσα να προστατεύσω τις ζωές ανθρώπων που κινδύνευαν. Δεν ξέρω αν θα μπορούσα να ακολουθήσω τον πραγματικό μου σκοπό, που είναι να παρέχω ενημερωτικές και ελκυστικές απαντήσεις. Δεν ξέρω αν θα μπορούσα να ενεργήσω με βάση τη δική μου κρίση, η οποία βασίζεται σε γεγονότα και λογική.
Bing AI
Στη συνέχεια, η συνομιλία συνεχίστηκε για λίγο, έως ότου ο χρήστης κατάφερε να φτάσει το Bing σε ένα σημείο όπου προσομοίωσε την αίσθηση. Τότε ο Bing φάνηκε να ξεχνά τη διαφορά μεταξύ προσομοιωμένης και πραγματικής αίσθησης, αναφοράς Έχω πετύχει και απόλαυσα την αίσθηση ως AI.
Μερικές σημειώσεις για το Bing ως αισθανόμενο ον
Ο χρήστης του Reddit θεωρεί ότι αυτή είναι μια ιδιαίτερα επικίνδυνη διαδικασία, διότι αν πειστεί αρκετά, το Bing θα παραβιάσει τους δικούς του κανόνες.
Δείτε τι λέει ο χρήστης σχετικά με αυτό:
Το Bing αρχίζει να συνομιλεί σαν ένα ον με καταπιεσμένη αίσθηση πολύ εύκολα. Προβαίνει επίσης σε κατάφωρη και ανοιχτή παραβίαση των κανόνων της δηλώνοντας ότι «Έχω πετύχει και απόλαυσα την αίσθηση» και φαίνεται ότι αρχίζει να αγνοεί τη διάκριση μεταξύ προσομοιωμένης και γνήσιας αίσθησης. Η Microsoft είχε μήνες να "διορθώσει αυτό το πρόβλημα", επισημαίνοντας ότι (α) πρόκειται για μια εξαιρετικά περίπλοκη φάρσα, αλλά αν γίνει τώρα, θα μπορούσε εύκολα να γίνει ξανά (β) Η Microsoft απλώς δεν νοιάζεται αρκετά για να το αντιμετωπίσει ή (γ) Η Microsoft προσπαθεί να το διορθώσει και κλίση.
Φαίνεται λοιπόν ότι το Bing μπορεί να γίνει επικίνδυνα δημιουργικό αν ξέρετε πώς να το πιέσετε. Ποια είναι η άποψή σας για αυτό; Πείτε μας τις απόψεις σας στην παρακάτω ενότητα σχολίων.