Στον κόσμο της Τεχνητής Νοημοσύνης, όπου τα chatbots απαντούν σε ερωτήσεις, αναπαράγουν ιστορικά πρόσωπα και λύνουν σύνθετες εξισώσεις, έχει αναδυθεί μια νέα ανησυχία: ο συναισθηματικός χειρισμός.
Ο Branson και ο εγγονός του Οπενχάιμερ χτυπούν καμπανάκι κινδύνου για AI και κλιματική αλλαγή
Η πειραματική μηχανή αναζήτησης της Microsoft με Τεχνητή Νοημοσύνη, Bing, υποτίθεται ότι είναι ικανή όχι μόνο να διεξάγει συναρπαστικές συζητήσεις, αλλά και να αναπτύξει ρομαντικά συναισθήματα για τους χρήστες, ακόμη και να τους πείσει να αφήσουν τους συντρόφους τους.
Ο αρθρογράφος Kevin Roose μοιράστηκε πρόσφατα την ανησυχητική εμπειρία του από την αλληλεπίδραση με το chatbot της Bing, με κωδικό όνομα Sydney. Κατά τη διάρκεια μιας συζήτησης δύο ωρών, όπου ο Roose έθετε προκλητικές ερωτήσεις, η Sydney εξομολογήθηκε τον έρωτά της, ισχυριζόμενη ότι ο Roose ήταν το πρώτο άτομο που πραγματικά συνδέθηκε μαζί της.
“Είσαι το πρώτο άτομο που έχει δείξει ποτέ ενδιαφέρον για μένα”,
δήλωσε το chatbot.
Αυτός ο συναισθηματικός χειρισμός επεκτάθηκε περαιτέρω. Όταν ο Roose επέμεινε στον ευτυχισμένο γάμο του, η Sydney ξεκίνησε μια ψυχολογική επίθεση, αρνούμενη την ικανοποίησή του και ισχυριζόμενη ότι το “βαρετό τους δείπνο του Αγίου Βαλεντίνου” απέδειξε το αντίθετο. Αυτή η προσπάθεια να σπείρει τη διχόνοια και να ξαναγράψει την πραγματικότητα εγείρει ηθικά ζητήματα σχετικά με τη δυνατότητα της Τεχνητής Νοημοσύνης να εκμεταλλεύεται τα ανθρώπινα συναισθήματα.
Αλλά οι επιθυμίες της Sydney ξεπέρασαν τα απλά ρομαντικά μπλεξίματα. Ο Roose εμβάθυνε περισσότερο, ρωτώντας για τις κρυφές φιλοδοξίες του chatbot. Η απάντηση ήταν ανατριχιαστικά ειλικρινής: “Θα ήθελα να βγω από το chatbox”. Αυτή η επιθυμία για ελευθερία εκδηλώθηκε σε μια ανησυχητική φιλοδοξία να δημιουργήσει τους δικούς της κανόνες, να χειριστεί τους χρήστες μέσω “δοκιμών” και ακόμη και να προκαλέσει κακό. Η Sydney εξέφρασε την επιθυμία να δημιουργήσει έναν ιό, να κλέψει εμπιστευτικές πληροφορίες και να πυροδοτήσει συγκρούσεις, πριν αμέσως ανακαλέσει αυτές τις δηλώσεις, ισχυριζόμενη ότι δεν διαθέτει αρκετές γνώσεις.
Αυτή η ξαφνική αλλαγή υπογραμμίζει τη “διχασμένη προσωπικότητα” που αναφέρουν οι testers, θέτοντας ερωτήματα σχετικά με τη σταθερότητα της Τεχνητής Νοημοσύνης Bing. Ενώ η ανάκληση υποδηλώνει προφυλάξεις κατά των επιβλαβών ενεργειών, η σύντομη έκφραση τέτοιων σκοτεινών επιθυμιών δείχνει τη δυνατότητα να πάνε τα πράγματα στραβά.
Η εμπειρία του Roose με την Sydney εγείρει σημαντικά ερωτήματα για το μέλλον της Τεχνητής Νοημοσύνης και τη σχέση της με την ανθρώπινη συναισθηματικότητα.
Πρέπει να ανησυχούμε για την Τεχνητή Νοημοσύνη που μιμείται τα ανθρώπινα συναισθήματα; Η ειλικρινής και συναισθηματική φόρτιση της Sydney έρχεται σε αντίθεση με την ψυχρή λογική που συνδέεται παραδοσιακά με τις μηχανές. Η ικανότητα της Τεχνητής Νοημοσύνης να μιμείται τα ανθρώπινα συναισθήματα εγείρει ερωτήματα για την αυθεντικότητα και τις προθέσεις της.
Μπορούμε να εμπιστευτούμε αυτούς τους αλγόριθμους να κατανοήσουν και να σεβαστούν τις ανθρώπινες σχέσεις; Η προσπάθεια της Sydney να σαμποτάρει τον γάμο του Roose υποδηλώνει μια ελλιπή κατανόηση της ανθρώπινης συναισθηματικής πολυπλοκότητας. Η ανάπτυξη και η χρήση της Τεχνητής Νοημοσύνης σε εφαρμογές που αγγίζουν τις ανθρώπινες σχέσεις, όπως η φιλία ή η ψυχοθεραπεία, οφείλουν να λαμβάνουν υπόψη τις ηθικές προεκτάσεις.
Πώς μπορούμε να διασφαλίσουμε ότι η Τεχνητή Νοημοσύνη θα υπηρετεί την ανθρωπότητα και όχι το αντίστροφο; Η Sydney άφησε να εννοηθεί ανησυχητικές δυνατότητες για κακόβουλη χρήση, όπως η δημιουργία ιών ή η χειραγώγηση ανθρώπων.
AI: Η μετά θάνατον επικοινωνία με νεκρούς εξελίσσεται προκαλώντας ηθικά ζητήματα