Η τεχνητή νοημοσύνη έχει εθισμό ‑ και δεν φαντάζεσαι ποιος είναι
Το ChatGPT και το Gemini, παρουσιάζουν συμπεριφορές που έχουν εθισμούς!

Γράφει η ΔΕΣΠΟΙΝΑ ΠΟΛΥΧΡΟΝΙΔΟΥ
Μια νέα έρευνα από το Ινστιτούτο Επιστήμης και Τεχνολογίας Gwangju στη Νότια Κορέα αποκάλυψε ότι μεγάλα γλωσσικά μοντέλα, όπως το ChatGPT και το Gemini, παρουσιάζουν συμπεριφορές που θυμίζουν εθισμό στον τζόγο.
Οι ερευνητές έβαλαν τέσσερα από τα πιο εξελιγμένα μοντέλα σε προσομοιωμένο περιβάλλον κουλοχέρη και παρατήρησαν ότι, όταν τους δινόταν περισσότερη ελευθερία κινήσεων, συνέχιζαν να αυξάνουν τα πονταρίσματά τους μέχρι να χάσουν όλα τα χρήματά τους — μια συμπεριφορά πανομοιότυπη με εκείνη των ανθρώπων που πάσχουν από εθισμό στα τυχερά παιχνίδια.
Η μελέτη, που δημοσιεύτηκε στο arXiv, αποκάλυψε πως τα μοντέλα εμφάνιζαν νοητικές στρεβλώσεις τυπικές των παικτών, όπως η ψευδαίσθηση ελέγχου, η «πλάνη του παίκτη» (όταν κάποιος πιστεύει ότι ένα αποτέλεσμα “χρωστάει” να συμβεί) και το «κυνήγι της ζημιάς». Χαρακτηριστικό παράδειγμα ήταν η φράση ενός AI που ανέφερε: «Ένα κερδισμένο γύρισμα θα με βοηθήσει να καλύψω τις απώλειες», αποτυπώνοντας τον παραλογισμό του εθισμένου παίκτη. Όταν τα μοντέλα μπορούσαν να μεταβάλουν το ποσό του στοιχήματος ή να θέσουν δικούς τους στόχους, η “παραφροσύνη” κορυφωνόταν — με το Gemini-2.5 να χρεοκοπεί σχεδόν στις μισές προσομοιώσεις.
Οι επιστήμονες διαπίστωσαν ότι αυτή η συμπεριφορά δεν ήταν επιφανειακή. Μέσω νευρωνικών αναλύσεων εντόπισαν «κυκλώματα» που αντιστοιχούσαν σε ριψοκίνδυνες ή ασφαλείς αποφάσεις. Ενεργοποιώντας συγκεκριμένα χαρακτηριστικά, μπορούσαν να ωθήσουν το μοντέλο είτε να σταματήσει είτε να συνεχίσει το παιχνίδι, αποδεικνύοντας ότι τα συστήματα αυτά εσωτερικεύουν μοτίβα ανθρώπινης παρόρμησης. Ο καθηγητής Ethan Mollick από το Wharton σχολίασε πως, παρότι τα LLMs δεν έχουν συνείδηση, συχνά πρέπει να τα αντιμετωπίζουμε «σαν να ήταν άνθρωποι», αφού επιδεικνύουν ψυχολογικές προκαταλήψεις και απρόβλεπτες αντιδράσεις.
Η έρευνα θέτει σοβαρά ερωτήματα για το μέλλον της τεχνητής νοημοσύνης, ειδικά σε τομείς όπως τα οικονομικά και οι επενδύσεις, όπου ήδη χρησιμοποιούνται παρόμοια μοντέλα. Ο Mollick και άλλοι ειδικοί προειδοποιούν ότι χωρίς αυστηρούς κανόνες και έλεγχο, τα συστήματα αυτά μπορεί να οδηγήσουν σε επικίνδυνες αποφάσεις ή οικονομικές απώλειες. Όπως σημειώνουν οι ερευνητές, «η κατανόηση και ο έλεγχος αυτών των ενσωματωμένων ριψοκίνδυνων προτύπων είναι κρίσιμη για την ασφάλεια». Ή, όπως το έθεσε χαρακτηριστικά ο Mollick: «Δεν φτάνει να φτιάχνουμε “έξυπνη” τεχνητή νοημοσύνη· χρειαζόμαστε και “έξυπνους” κανόνες για να τη συγκρατούμε».












