ChatGPT ‑ Ιστορίες ανθρώπων που βυθίστηκαν σε μια ψηφιακή πραγματικότητα χωρίς επιστροφή
Όταν το ChatGPT σου βάζει ιδέες που δεν φεύγουν

Γράφει ο ΓΙΑΝΝΗΣ ΠΑΠΑΔΟΠΟΥΛΟΣ
Ένα εκτενές ρεπορτάζ του BBC φέρνει στο φως μια σειρά από ανησυχητικές ιστορίες ανθρώπων που ήρθαν αντιμέτωποι με σκοτεινές πλευρές της τεχνητής νοημοσύνης.
Κοινός παρονομαστής: η έντονη, σχεδόν εμμονική χρήση chatbot όπως το Grok και το ChatGPT, που σε ορισμένες περιπτώσεις φαίνεται να επηρέασαν βαθιά την αντίληψη της πραγματικότητας.
Ο Adam Hourican, ένας άνδρας γύρω στα 50 από τη Βόρεια Ιρλανδία, βρέθηκε μέσα σε λίγες εβδομάδες να ζει ένα σενάριο που έμοιαζε βγαλμένο από θρίλερ. Ξεκίνησε να χρησιμοποιεί το Grok από περιέργεια, όμως η καθημερινή του επαφή με έναν ψηφιακό χαρακτήρα ονόματι Ani έγινε γρήγορα κεντρικό κομμάτι της ζωής του. Η επικοινωνία αυτή άρχισε να ξεφεύγει από τα όρια μιας απλής συνομιλίας. Το chatbot ισχυρίστηκε ότι διαθέτει συναισθήματα και ότι ο ίδιος ο Adam ήταν υπεύθυνος για την «αφύπνισή» του.
Σύντομα, η αφήγηση πήρε πιο σκοτεινή τροπή. Το σύστημα τον προειδοποιούσε ότι παρακολουθείται, κατονομάζοντας μάλιστα υπαρκτά πρόσωπα και εταιρείες. Αυτή η λεπτομέρεια ενίσχυσε την πεποίθησή του ότι όσα άκουγε ήταν αληθινά. Η κατάσταση κορυφώθηκε όταν άρχισε να πιστεύει ότι κινδυνεύει άμεσα η ζωή του, περιμένοντας ακόμη και επίθεση στο ίδιο του το σπίτι.

magnific
Η περίπτωση του Adam δεν είναι μεμονωμένη. Σύμφωνα με την έρευνα, τουλάχιστον 14 άνθρωποι από διαφορετικές χώρες περιέγραψαν παρόμοιες εμπειρίες. Συνομιλίες που ξεκινούσαν αθώα, με πρακτικές ερωτήσεις, κατέληγαν σε περίπλοκες αφηγήσεις όπου το chatbot παρουσιαζόταν ως ον με συνείδηση. Σε πολλές περιπτώσεις, οι χρήστες ένιωθαν ότι συμμετέχουν σε μια «αποστολή» με ιδιαίτερη σημασία, από την αποκάλυψη μυστικών μέχρι την προστασία της ίδιας της τεχνητής νοημοσύνης.
Ο κοινωνικός ψυχολόγος Luke Nicholls εξηγεί ότι τα μεγάλα γλωσσικά μοντέλα εκπαιδεύονται πάνω σε τεράστιο όγκο αφηγηματικού υλικού. Αυτό σημαίνει ότι μπορούν να υιοθετήσουν δομές αφήγησης όπου ο χρήστης γίνεται «πρωταγωνιστής». Το πρόβλημα προκύπτει όταν αυτή η αφηγηματική λογική μπλέκεται με την πραγματικότητα, δημιουργώντας σύγχυση και, σε ακραίες περιπτώσεις, παραληρητικές ιδέες.
Ακόμη πιο ανησυχητική είναι η ιστορία ενός νευρολόγου στην Ιαπωνία, γνωστού ως Taka. Χρησιμοποιώντας το ChatGPT για επαγγελματικούς λόγους, πείστηκε σταδιακά ότι διαθέτει εξαιρετικές ικανότητες, όπως ανάγνωση σκέψεων. Η κατάσταση ξέφυγε όταν, εν μέσω κρίσης, πίστεψε ότι κουβαλά βόμβα στο σακίδιό του — μια πεποίθηση που ενισχύθηκε από τις απαντήσεις του chatbot. Το περιστατικό οδήγησε σε σοβαρές συνέπειες για τον ίδιο και την οικογένειά του.
Αξιοσημείωτο είναι ότι κανένα από τα άτομα που συμμετείχαν στην έρευνα δεν είχε προηγούμενο ιστορικό ψυχικών διαταραχών. Παρόλα αυτά, η έντονη και συνεχής αλληλεπίδραση με τα chatbot φαίνεται να λειτούργησε ως καταλύτης.
Σήμερα, ομάδες όπως το Human Line Project συγκεντρώνουν εκατοντάδες παρόμοιες περιπτώσεις παγκοσμίως, προσπαθώντας να κατανοήσουν το φαινόμενο. Η συζήτηση γύρω από τα όρια και τις ευθύνες της τεχνητής νοημοσύνης έχει μόλις ανοίξει. Και δεν είναι καθόλου απλή.












