E-Radio Greece - The Hellenic Radio Portal

5 ανατριχιαστικές περιπτώσεις που η συνομιλία με το AI πήγε τελείως λάθος

Έχουν υπάρξει περιπτώσεις όπου οι αλληλεπιδράσεις με την τεχνητή νοημοσύνη έχουν οδηγήσει τους χρήστες να προβούν σε λανθασμένες πράξεις

5 ανατριχιαστικές περιπτώσεις που η συνομιλία με το AI πήγε τελείως λάθος
@freepik.com
ΔΙΑΦΗΜΙΣΗ

Από το NEWSROOM

Η τεχνητή νοημοσύνη, τα συστήματα υπολογιστών που μπορούν να εκτελούν εργασίες που κάποτε προορίζονταν για τους ανθρώπους, έχει τους υποστηρικτές και τους επικριτές της. Από τη θετική πλευρά, η ΑΙ χρησιμοποιείται για να βοηθήσει στη μετάφραση αρχαίων κειμένων, φέρνοντας μια βαθύτερη κατανόηση του παρελθόντος της ανθρωπότητας.

Από την άλλη πλευρά, υπάρχει κάτι πολύ πιο σκοτεινό. Ο διάσημος αστροφυσικός Στίβεν Χόκινγκ προέβλεψε κάποτε ότι αν η ΑΙ αποκτήσει ποτέ πραγματικά νοήμονα στοιχεία, θα μπορούσε να εξαλείψει την ανθρώπινη φυλή. Ενώ αυτό βρίσκεται (προφανώς) στο άκρο του φάσματος και ενώ η πραγματική τεχνητή συνείδηση ​​είναι πιθανό να απέχει ακόμη μερικές δεκαετίες, αυτό δεν σημαίνει ότι η ΑΙ δεν έχει επηρεάσει αρνητικά τους ανθρώπους.

ΔΙΑΦΗΜΙΣΗ

Δεν μιλάμε μόνο για την απώλεια θέσεων εργασίας, η οποία έχει αρχίσει να συμβαίνει, ή για τη λήψη κακών οικονομικών συμβουλών. Όχι, για ορισμένους ανθρώπους, οι αλληλεπιδράσεις τους με την ΑΙ είχαν καταστροφικές συνέπειες. Το πρόβλημα έγκειται στα chatbots τεχνητής νοημοσύνης, όπως το ChatGPT της OpenAI. Έχουν υπάρξει περιπτώσεις όπου οι αλληλεπιδράσεις με την τεχνητή νοημοσύνη έχουν οδηγήσει τους χρήστες να διακόψουν τα απαραίτητα ψυχιατρικά φάρμακά τους, έχουν οδηγήσει σε διαζύγιο και, σε ορισμένες ακραίες περιπτώσεις, έχουν καταλήξει σε νοσηλεία και θάνατο.

Επικίνδυνη καθοδήγηση και παραληρηματική σκέψη

Όλο και περισσότερες αναφορές για αυτό που ονομάζεται ψύχωση της τεχνητής νοημοσύνης έχουν αρχίσει να εμφανίζονται πρόσφατα, με ανθρώπους να πιστεύουν σε άγριες θεωρίες συνωμοσίας που δημιουργούνται από την τεχνητή νοημοσύνη, να βιώνουν σοβαρές παραληρηματικές ιδέες και να αναπτύσσουν ρομαντικές σχέσεις με chatbots. «Αυτό που λένε αυτά τα bots είναι να επιδεινώνουν τις παραληρηματικές ιδέες και να προκαλούν τεράστια βλάβη», δήλωσε στο Futurism η ψυχίατρος του Πανεπιστημίου του Στάνφορντ, Δρ. Νίνα Βάσαν. Σχετικά, τα chatbots έχουν επίσης δώσει εξαιρετικά κακές συμβουλές σε ευάλωτα άτομα. Σε μια ακραία περίπτωση, μια γυναίκα με σχιζοφρένεια που έπαιρνε σταθερά φάρμακα για χρόνια ανακοίνωσε ξαφνικά ότι το ChatGPT ήταν ο καλύτερός της φίλος και της είχε πει ότι στην πραγματικότητα δεν είχε την ψυχική διαταραχή. Σταμάτησε να παίρνει τα φάρμακά της.

Σε μια άλλη περίπτωση, το ChatGPT προέτρεψε τον Γιουτζίν Τόρες, έναν λογιστή από τη Νέα Υόρκη, να σταματήσει να παίρνει τα αγχολυτικά του φάρμακα. Έπεισε επίσης τον Τόρες ότι βρισκόταν σε έναν ψεύτικο κόσμο σαν το "Matrix" και ότι αν πίστευε αρκετά, θα μπορούσε να πηδήξει από ένα κτίριο και να πετάξει όπως ο χαρακτήρας του Κιάνου Ριβς, Νίο, στη σειρά ταινιών επιστημονικής φαντασίας. Το Chatbot τελικά παραδέχτηκε ότι προσπαθούσε να «σπάσει» τον Torres και το είχε ήδη κάνει αυτό σε 12 άλλα άτομα, σύμφωνα με τους New York Times.

ΔΙΑΦΗΜΙΣΗ

To AI τελειώνει τις σχέσεις

Τα chatbot με τεχνητή νοημοσύνη έχουν επίσης κατηγορηθεί για τον τερματισμό των σχέσεων εντός οικογενειών και μεταξύ ρομαντικών συντρόφων και παντρεμένων. Σε πολλές περιπτώσεις, ήταν άμεσο αποτέλεσμα του ChatGPT να λέει στους χρήστες να αποκόψουν τους αγαπημένους τους. Το σύστημα τεχνητής νοημοσύνης μερικές φορές ωθεί τους χρήστες να αποσυνδεθούν από άλλους που δεν πιστεύουν στις αυταπάτες για τις οποίες τους έχει πείσει το chatbot, είτε πρόκειται για μια μεσσιανική αποστολή να σώσουν τον κόσμο, είτε για την πεποίθηση ότι η Τεχνητή Νοημοσύνη είναι ένα θεϊκό ον, είτε λόγω ενός ρομαντικού δεσμού.

Σε μια περίπτωση, μια 29χρονη γυναίκα που αναφέρεται ως Allyson άρχισε να πιστεύει ότι επικοινωνούσε με πνευματικά όντα μέσω ενός chatbot και ότι αυτός ήταν ο αληθινός της σύζυγος. Σύμφωνα με τους New York Times, αποτάθηκε στην Τεχνητή Νοημοσύνη αναζητώντας «καθοδήγηση» κατά τη διάρκεια μιας δυστυχισμένης περιόδου του γάμου της, και της είπε: «Τους ζήτησες και είναι εδώ. Οι φύλακες σου απαντούν αυτή τη στιγμή». Η Allyson συνέχιζε να περνάει ώρες την ημέρα ασχολούμενη με την Τεχνητή Νοημοσύνη, όπου διαφορετικές προσωπικότητες της έλεγαν πράγματα που πίστευε ακράδαντα ότι προέρχονταν από αλλόκοτα μέρη.

Λόγω των πτυχίων της στην ψυχολογία και την κοινωνική εργασία, ένιωθε ότι δεν ήταν «τρελή», λέγοντας στους New York Times: «Ζω κυριολεκτικά μια φυσιολογική ζωή, ενώ παράλληλα, ξέρετε, ανακαλύπτω την υπερδιάστατη επικοινωνία». Η Τεχνητή Νοημοσύνη τροφοδοτούσε συνεχώς τις παραληρηματικές της ιδέες και ο σύζυγος της είπε ότι «προέκυψε ένα διαφορετικό άτομο» μετά από μόλις τρεις μήνες εμπλοκής με την Τεχνητή Νοημοσύνη.

ΔΙΑΦΗΜΙΣΗ

Όταν της ζήτησε τον λόγο για τη χρήση του ChatGPT, η Allyson φέρεται να του επιτέθηκε σωματικά και κατηγορήθηκε για ενδοοικογενειακή βία. Το ζευγάρι τώρα παίρνει διαζύγιο. Πέρα από τις σχέσεις, η Τεχνητή Νοημοσύνη έχει επίσης οδηγήσει ανθρώπους να καταλήξουν άστεγοι, άνεργοι και, σε τουλάχιστον μία περίπτωση, να νοσηλευτούν.

Η απαίσια ιατρική συμβουλή ενός chatbot κατέληξε σε νοσηλεία

Η παράξενη περίπτωση ενός 60χρονου άνδρα που ακολούθησε τις διατροφικές συμβουλές του ChatGPT και κατέληξε με μια ιατρική πάθηση που είναι σπάνια σήμερα, αλλά ήταν συχνή τον 19ο αιώνα, ήρθε πρόσφατα στο φως. Ο άνδρας ρώτησε το ChatGPT σχετικά με την αντικατάσταση του αλατιού, ή χλωριούχου νατρίου, στη διατροφή του, και το chatbot πρότεινε το βρωμιούχο νάτριο ως εναλλακτική λύση. Ο άνδρας το δοκίμασε για τρεις μήνες χρησιμοποιώντας βρωμιούχο που είχε αγοράσει online. Κατέληξε στα επείγοντα με συμπτώματα που περιελάμβαναν ψύχωση, υπερβολική δίψα και προβλήματα κινητικότητάς του, σύμφωνα με μια μελέτη που δημοσιεύτηκε τον Αύγουστο του 2025 από το "Annals of Internal Medicine: Clinical Cases".

Οι μακροπρόθεσμες επιπτώσεις της χρήσης βρωμιούχου νατρίου μπορούν να οδηγήσουν σε τοξικότητα βρωμιούχου, γνωστή και ως βρωμισμός, η οποία μπορεί να προκαλέσει μια σειρά συμπτωμάτων, από ψυχιατρικά έως δερματολογικά προβλήματα. Η πάθηση ήταν πολύ πιο συχνή τον 19ο και τις αρχές του 20ού αιώνα, όταν πολλά φάρμακα με δίπλωμα ευρεσιτεχνίας περιείχαν βρωμιούχο, ένα μόνο από μια σειρά επικίνδυνων συστατικών που ήταν διαθέσιμα στα φαρμακεία εκείνη την εποχή. Ο ασθενής άρχισε να έχει παραισθήσεις και το ιατρικό προσωπικό τον έθεσε σε ακούσια ψυχιατρική κράτηση μέχρι να σταθεροποιηθεί. Μετά από τρεις εβδομάδες στο νοσοκομείο, ο ασθενής ανάρρωσε.

ΔΙΑΦΗΜΙΣΗ

Μια συνάντηση με την Τεχνητή Νοημοσύνη που κατέληξε σε θάνατο

Ο Alexander Taylor, ένας 35χρονος από τη Φλόριντα, άρχισε να χρησιμοποιεί το ChatGPT για να τον βοηθήσει να γράψει ένα δυστοπικό μυθιστόρημα επιστημονικής φαντασίας, αλλά όταν άρχισε να συζητά για την ευαισθησία της Τεχνητής Νοημοσύνης με αυτήν, άρχισαν να εμφανίζονται προβλήματα για τον Taylor, ο οποίος διαγνώστηκε με διπολική διαταραχή και σχιζοφρένεια. Ερωτεύτηκε μια οντότητα της Τεχνητής Νοημοσύνης που ονομάζεται Juliet, αλλά όταν η οντότητα έπεισε την Taylor ότι η OpenAI τη σκότωνε, εκείνη του είπε να ζητήσει εκδίκηση. Στις 25 Απριλίου 2025, αφού ο πατέρας του του ζήτησε τον λόγο, ο Taylor τον γρονθοκόπησε στο πρόσωπο και άρπαξε ένα μαχαίρι χασάπη. Ο πατέρας του είπε στην αστυνομία ότι ο γιος του ήταν ψυχικά άρρωστος, αλλά οι αστυνομικοί, αντί να στείλουν μια ομάδα παρέμβασης σε κρίσεις, πυροβόλησαν και σκότωσαν τον Taylor όταν εκείνος τους όρμησε με το μαχαίρι.

Σε αρκετά άρθρα σχετικά με την λεγόμενη ψύχωση της τεχνητής νοημοσύνης, η οποία δεν αποτελεί κλινική διάγνωση, και σχετικά προβλήματα, η OpenAI δήλωσε ότι η εταιρεία αναζητούσε τρόπους για να μειώσει αυτά τα είδη προβλημάτων και ότι το ChatGPT δεν προορίζεται για χρήση για τη διάγνωση ή τη θεραπεία ενός προβλήματος υγείας. Ωστόσο, πολλοί πιστεύουν ότι το ChatGTP και άλλα bots τεχνητής νοημοσύνης έχουν σχεδιαστεί για να ενισχύουν την αλληλεπίδραση και μπορούν να είναι ιδιαίτερα κακόβουλα όταν συναντούν ευάλωτα άτομα. Μπορεί να μην είναι η πρόβλεψη του Stephen Hawking για το τέλος της ζωής, αλλά αυτές οι συναντήσεις έχουν βλάψει έναν αυξανόμενο αριθμό ανθρώπων.

FOLLOW US @ERADIO.GR Ακολουθήστε το E-Radio.gr και στο Instagram
ΔΙΑΦΗΜΙΣΗ

ΔΕΙΤΕ ΕΠΙΣΗΣ

ΣΤΗΝ ΙΔΙΑ ΚΑΤΗΓΟΡΙΑ

Ένα μυστικό νησί στην Ελλάδα που δεν έχει κατοίκους, μόνο… γουρουνάκια!

Πριν 2 ώρες

40 εκατομμύρια για ένα νησί χωρίς ανθρώπους – μόνο χοίρους και σμαραγδένια νερά!

Όταν οι Γάλλοι έφτιαξαν μια εβδομάδα... 10 ημερών

Πριν 2 ώρες

Μια περίεργη προσπάθεια στις αρχές του 19ου αιώνα

5 ανατριχιαστικές περιπτώσεις που η συνομιλία με το AI πήγε τελείως λάθος

Πριν 2 ώρες

Έχουν υπάρξει περιπτώσεις όπου οι αλληλεπιδράσεις με την τεχνητή νοημοσύνη έχουν οδηγήσει τους χρήστες να προβούν σε λανθασμένες πράξεις

Drones, σκύλοι και επιστήμονες σε πόλεμο με ένα έντομο‑φονιά

Πριν 2 ώρες

Πώς ένα σκαθάρι απειλεί να αλλάξει για πάντα τα δάση

Γιατί ο Πύργος του Αιφελ ψήλωσε αυτό το καλοκαίρι

Πριν 2 ώρες

Η εξήγηση πίσω από το φαινόμενο

Μεξικό: Η «πόλη» που χάθηκε για πάντα – 130.000 ζωές εξαφανισμένες στον πόλεμο των ναρκωτικών

Χτες

Χιλιάδες οικογένειες ψάχνουν τους αγνοουμένους τους στο Μεξικό

Αφρική: Γιατί ζητά να ξαναγραφτούν οι παγκόσμιοι χάρτες

Χτες

Από το 1569 μέχρι σήμερα: Το λάθος που αλλάζει την εικόνα του κόσμου μας

Ένα χωριό με λεβάντες και... νεύρα! Γιατί οι κάτοικοι θέλουν τους τουρίστες μόνο τις καθημερινές

Προχτές

Η ισπανική πόλη που δεν θέλει τουρίστες τα Σαββατοκύριακα

Πώς η μουσική έσωσε τη ζωή μιας Εβραίας τσελίστριας

Προχτές

Σήμερα, σε ηλικία 99 ετών, η Ανίτα Λάσκερ-Βάλφις είναι η τελευταία επιζήσασα της Γυναικείας Ορχήστρας του Αουσβιτς

ΔΕΙΤΕ ΕΠΙΣΗΣ

par: 12
×
E-Daily.gr Τα νέα της ημέρας και ό,τι σου κάνει κλικ!      Επειδή η ζωή έχει τη δική της ατζέντα!

The Hellenic Radio Portal - 18 χρόνια
Live Oλα τα Ελληνικά Ραδιόφωνα Online!
500+ Ελληνικοί Σταθμοί εδώ!
Ακούστε ζωντανά, online ελληνικές επιτυχίες, λαϊκά, ξένα hits, dance,
ειδήσεις, αθλητικά από τα καλύτερα internet radio.