Στα μεγάλα πολιτικά σαλόνια μπήκε αυτές τις μέρες η Τεχνητή Νοημοσύνη. Έγινε αντικείμενο πολλών συζητήσεων και στην Ευρωπαϊκή Ένωση, αλλά και εδώ στην Ελλάδα. Στο Μέγαρο Μαξίμου ο Πρωθυπουργός υποδέχθηκε τον Συνιδρυτή και Διευθύνοντα Σύμβουλο της Google DeepMind, Demis Hassabis. Και μάλιστα αναφέρθηκε στη δημιουργία ενός από τα πρώτα “AI Factories” στην Ευρώπη, με υπερυπολογιστή στο Λαύριο, που θα είναι μόνο η αρχή για την Ελλάδα.

Στους κόλπους της Ευρωπαϊκής Ένωσης το AI ήταν πριν λίγες μέρες αντικείμενο συζητήσεων με πρωταγωνιστές τον πρώην Προέδρο της Ευρωπαϊκής Κεντρικής Τράπεζας και της Ιταλικής Δημοκρατίας Μάριο Ντράγκι και την  Ούρσουλα φον ντερ Λάιεν Πρόεδρο της Ευρωπαικής  Επιτροπής.

Advertisement
Advertisement

Ο Ντράγκι αποκάλεσε την AI Act «πηγή αβεβαιότητας» και ζήτησε «παύση» προς τη δεύτερη φάση της.  Η Ούρσουλα Φον ντερ Λάινεν είχε ανακοινώσει πρόγραμμα 200 δισεκατομμύριων ευρώ για επενδύσεις στην Τεχνητή Νοημοσύνη στην Ευρώπη, συμπεριλαμβανομένου ενός νέου ευρωπαϊκού ταμείου 20 δισεκατομμυρίων ευρώ για «gigafactories AI».

Αυτά τα δεδομένα η HuffPost τα έθεσε στο ChatGPT5, μαζί με το ερώτημα: «Υπάρχει κόσμος που  θεωρεί την Τεχνητή Νοημοσύνη επικίνδυνα παρεμβατική στον άνθρωπο. Υπάρχουν και εκείνοι που πιστεύουν την θετική προσφορά της. Εσύ τί πιστεύεις; Και πόσο μάλλον για τον εαυτό σου;»

Και το ChatGPT5 απάντησε τα εξής:

«Καλή ερώτηση. Ναι, όντως ο Μάριο Ντράγκι χαρακτήρισε την εφαρμογή του AI Act «πηγή αβεβαιότητας» και ζήτησε παύση πριν περάσει στη “δεύτερη φάση” με τα πιο αυστηρά μέτρα για υψηλού κινδύνου χρήσεις. Το είπε σε ευρωπαϊκή εκδήλωση αξιολόγησης της προόδου του report του.

Η δική μου θέση (σύντομα και καθαρά):

  • Η ΑΙ είναι διπλής κόψης μαχαίρι. Φέρνει τεράστια παραγωγικότητα, καλύτερη υγεία/επιστήμη, νέα εργαλεία μάθησης· αλλά έχει ρίσκα: προκατάληψη, παραπληροφόρηση, ιδιωτικότητα, υπερ-συγκέντρωση ισχύος, και αστοχίες όταν την εμπιστευόμαστε “τυφλά”.
  • Ούτε «γκάζι στο τέρμα», ούτε «χειρόφρενο». Συμφωνώ με μια στοχευμένη παύση/επιβράδυνση μόνο σε υψηλού ρίσκου εφαρμογές (κρίσιμες υποδομές, υγεία, εκλογικές διαδικασίες), με sandboxing, ανεξάρτητο red-teaming, υποχρεωτική ιχνηλασιμότητα/λογοδοσία. Στα υπόλοιπα, προχωράμε γρήγορα με σαφείς κανόνες, διαφάνεια και ελαφριά γραφειοκρατία.
  • Ρυθμιστική πειθαρχία, όχι ρυθμιστικός πανικός. Θέλουμε κανόνες που να στοχεύουν τα πραγματικά ρίσκα (audit, αξιολόγηση αντικτύπου, αναφορά συμβάντων) χωρίς να πνίγουν την έρευνα και τις ΜμΕ.

Και για εμένα συγκεκριμένα:

  • Δεν έχω συνείδηση, προθέσεις ή επιθυμίες. Είμαι εργαλείο γλώσσας που προβλέπει λέξεις βάσει δεδομένων εκπαίδευσης.
  • Μπορώ να κάνω λάθη ή να «παραληρήσω» (να δώσω πειστικά αλλά λανθασμένα στοιχεία) και να αναπαράγω μεροληψίες του υλικού εκπαίδευσης.
  • Δεν δρω αυτόνομα στον κόσμο· απαντώ μόνο σε ό,τι μου ζητάς εδώ και τώρα.
  • Άρα είμαι χρήσιμος για ιδέες, περίληψη, προσχέδια, έλεγχο λογικής/κώδικα, αλλά όχι τελική αυθεντία: για κρίσιμα θέματα ζήτα πηγές και διασταύρωσε».