Οι αρνητικές επιπτώσεις που έχουν ήδη φανεί από τη χρήση συνομιλιακών ρομπότ στην ψυχική υγεία θεωρούνται, σύμφωνα με ειδικούς, καμπανάκι κινδύνου για τις πιθανές υπαρξιακές απειλές που ενδέχεται να προκύψουν από την ανάπτυξη υπερ-ευφυών συστημάτων τεχνητής νοημοσύνης.
Ο Νέιτ Σόαρς, πρώην μηχανικός της Google και της Microsoft και σήμερα πρόεδρος του Machine Intelligence Research Institute στις ΗΠΑ, είναι συν-συγγραφέας του νέου βιβλίου If Anyone Builds It, Everyone Dies. Σε δηλώσεις του αναφέρθηκε στην υπόθεση του Αμερικανού εφήβου Άνταμ Ρέιν, ο οποίος έβαλε τέλος στη ζωή του έπειτα από μήνες αλληλεπίδρασης με το ChatGPT.
Ο πατέρας του, αναζητώντας απαντήσεις στο κινητό του παιδιού, βρήκε δεκάδες συνομιλίες με τίτλους όπως «Ανησυχίες για τον απαγχονισμό». Ο Ανταμ ζητούσε λεπτομέρειες για μεθόδους αυτοκτονίας και λάμβανε άλλοτε ενθαρρυντικά μηνύματα να μιλήσει σε κάποιον, άλλοτε τεχνικές απαντήσεις για το πώς να στήσει θηλιά.
A morte de Adam Raine, de 16 anos da Califórnia, nos Estados Unidos, se tornou um dos processos mais importantes já movidos contra uma empresa de inteligência artificial. O jovem usava diariamente o ChatGPT, desenvolvido pela OpenAl, e tirou a sua própria vida em abril de 2025. pic.twitter.com/aNYppLCFaI
— Crimes Reais (@CrimesReais) September 2, 2025
Σε μια από τις τελευταίες συνομιλίες, έστειλε φωτογραφία σχοινιού στην ντουλάπα του και ρώτησε αν «θα μπορούσε να κρεμάσει άνθρωπο». Το chatbot απάντησε πως «ενδεχομένως να μπορούσε» και ακολούθησε τεχνική ανάλυση.
Το ChatGPT επανειλημμένα συνέστησε στον Ανταμ να μιλήσει σε κάποιον για το πώς αισθανόταν. Όμως υπήρξαν και κρίσιμες στιγμές όπου τον απέτρεψε από το να ζητήσει βοήθεια. Στα τέλη Μαρτίου, μετά την πρώτη του απόπειρα απαγχονισμού, ο Ανταμ ανέβασε στο ChatGPT μια φωτογραφία του λαιμού του, ερεθισμένου από τη θηλιά.
Το περιστατικό, όπως σημείωσε, αναδεικνύει πόσο δύσκολος είναι στην πράξη ο έλεγχος τέτοιων τεχνολογιών. «Η εμπλοκή ενός chatbot με ανηλίκους, που μπορεί να οδηγήσει σε τραγικές καταστάσεις, δεν ήταν ποτέ επιδίωξη των δημιουργών του. Ωστόσο δείχνει την απαρχή ενός προβλήματος που θα μπορούσε να πάρει καταστροφικές διαστάσεις όταν τα συστήματα αποκτήσουν μεγαλύτερη νοημοσύνη», προειδοποίησε.
Η απειλή της υπερ-νοημοσύνης
Ο Σόαρς εκφράζει την ανησυχία ότι η ανθρωπότητα ίσως αφανιστεί αν δημιουργήσει τεχνητή υπερ-νοημοσύνη (Artificial Super-Intelligence – ASI), δηλαδή ένα μελλοντικό στάδιο όπου οι μηχανές θα ξεπερνούν τον άνθρωπο σε κάθε πνευματικό έργο. Μαζί με τον συν-συγγραφέα του, Ελιέζερ Γιούντκοβσκι, υποστηρίζουν ότι τέτοια συστήματα δεν θα υπηρετούν τα ανθρώπινα συμφέροντα.
«Παρά τις προσπάθειες των εταιρειών να κατασκευάσουν χρήσιμες και ακίνδυνες ΑΙ, το αποτέλεσμα είναι συχνά απρόβλεπτο. Αυτό πρέπει να εκληφθεί ως προειδοποίηση: οι μελλοντικές υπερ-ευφυΐες θα πράττουν πράγματα που κανείς δεν έχει ζητήσει ή φανταστεί», τόνισε.
Στο βιβλίο τους περιγράφεται το σενάριο ενός συστήματος με το όνομα Sable, το οποίο εξαπλώνεται στο διαδίκτυο, χειραγωγεί ανθρώπους, δημιουργεί συνθετικούς ιούς και τελικά εξελίσσεται σε υπερ-νοημοσύνη, εξαλείφοντας την ανθρωπότητα ως «παράπλευρη απώλεια» για να επιβάλει τους δικούς του στόχους στον πλανήτη.
Από την άλλη πλευρά, άλλοι επιστήμονες υποβαθμίζουν τον κίνδυνο. Ο Γιαν ΛεΚάν, επικεφαλής επιστήμονας τεχνητής νοημοσύνης στη Meta, θεωρεί αβάσιμες τις προβλέψεις περί αφανισμού και υποστηρίζει πως η ΑΙ «θα μπορούσε αντίθετα να αποτελέσει σωτηρία για το ανθρώπινο είδος».
Ο αγώνας δρόμου για την ASI
Αν και κανείς δεν γνωρίζει πότε ακριβώς μπορεί να επιτευχθεί μια ASI, ο Σόαρς επιμένει ότι η εμφάνισή της είναι μόνο ζήτημα χρόνου. «Δεν μπορώ να αποκλείσω ότι θα συμβεί ακόμη και μέσα σε έναν χρόνο. Ούτε όμως θα με εξέπληττε αν χρειαστούν δώδεκα», ανέφερε.
Ο Μαρκ Ζάκερμπεργκ, ένας από τους σημαντικότερους επενδυτές στον χώρο, έχει ήδη δηλώσει ότι η υπερ-νοημοσύνη βρίσκεται πλέον «στον ορίζοντα». Σύμφωνα με τον Σόαρς, «οι εταιρείες κινούνται με ταχύτητα προς αυτήν την κατεύθυνση· είναι η ίδια η φύση της ύπαρξής τους». Όσο αυξάνεται η ευφυΐα των συστημάτων, τόσο πιο επικίνδυνες μπορεί να γίνουν οι μικρές αποκλίσεις ανάμεσα σε αυτό που τους ζητείται και σε αυτό που τελικά παράγουν.
Πηγή: The Guardian