Η φράση ότι «κάθε φορά που ρωτάς το ChatGPT είναι σαν να ανάβεις μια λάμπα» ακούγεται εντυπωσιακή, αλλά δεν αποτυπώνει με ακρίβεια τι συμβαίνει στην πράξη. Η πραγματικότητα είναι πιο σύνθετη: ένα τυπικό, απλό text prompt έχει μετρήσιμο αλλά σχετικά μικρό ενεργειακό κόστος, το οποίο όμως μπορεί να αυξηθεί αισθητά όταν η χρήση της τεχνητής νοημοσύνης γίνεται πιο απαιτητική.
Η δημόσια συζήτηση γύρω από το περιβαλλοντικό αποτύπωμα της τεχνητής νοημοσύνης έχει φουντώσει τους τελευταίους μήνες, συχνά με τίτλους που απλοποιούν υπερβολικά ένα τεχνικό ζήτημα. Και ναι, η χρήση εργαλείων όπως το ChatGPT καταναλώνει ηλεκτρική ενέργεια. Όμως δεν ισχύει ότι κάθε ερώτηση έχει το ίδιο κόστος ούτε ότι μπορεί να περιγραφεί με ένα ενιαίο, εύκολο σύνθημα.
Οι πιο πρόσφατες εκτιμήσεις συγκλίνουν στο ότι ένα τυπικό ερώτημα στο ChatGPT καταναλώνει περίπου 0,3 έως 0,34 watt-hours ηλεκτρικής ενέργειας. Σε πρακτικούς όρους, αυτό αντιστοιχεί περίπου στην κατανάλωση μιας αποδοτικής LED λάμπας που μένει αναμμένη για λίγα λεπτά. Αυτό σημαίνει ότι η βασική ιδέα πίσω από τον δημοφιλή ισχυρισμό δεν είναι εντελώς λάθος, αλλά είναι σαφώς πιο περιορισμένη από όσο αφήνουν να εννοηθεί οι πιο δραματικοί τίτλοι.
Πιό αναλυτικά:
Ένα απλό text prompt στο ChatGPT όντως καταναλώνει ηλεκτρική ενέργεια περίπου όσο μια αποδοτική LED λάμπα για λίγα λεπτά, όχι όμως γενικά και αόριστα «σαν να ανάβεις μια λάμπα». Η διάρκεια και ο τύπος της λάμπας έχουν σημασία. Μια πρόσφατη ανάλυση της Epoch AI εκτιμά μια τυπική ερώτηση στο GPT-4o γύρω στα 0,3 Wh, ενώ ο Sam Altman είχε δώσει πολύ κοντινό νούμερο, 0,34 Wh ανά μέσο query, λέγοντας ότι αυτό αντιστοιχεί σε μια high-efficiency λάμπα για «μερικά λεπτά».
Τί λένε τα αρχεία και οι έρευνες του ΜΙΤ
Εκεί που δημοσιεύματα γίνεονται παραπλανητικό είναι στο «Έρευνα του MIT». Αυτό επικαλούνται αβασάνιστα και χωρίς μα ψάξουν. Στα προσβάσιμα αρχεία του MIT που βρήκα, το MIT πράγματι εξηγεί ότι η generative AI έχει σημαντικό ενεργειακό αποτύπωμα και αναφέρει ότι ένα ChatGPT query έχει εκτιμηθεί πως καταναλώνει περίπου 5 φορές περισσότερη ενέργεια από μια απλή web search. Όμως αυτό δεν είναι το ίδιο με το να λέμε ότι υπάρχει κάποια συγκεκριμένη «μελέτη του MIT» που κατέληξε ακριβώς στο σλόγκαν «κάθε ερώτηση = μία λάμπα».
Άρα η ουσία είναι:
Σωστό ως γενική ιδέα: κάθε prompt έχει πραγματικό ενεργειακό κόστος.
Χονδρικά σωστό για ένα μέσο, απλό text query: περίπου όσο μια αποδοτική λάμπα για λίγα λεπτά.
Λάθος ή τουλάχιστον υπερβολικό ως τίτλος: δεν ισχύει με τον ίδιο τρόπο για όλα τα prompts, όλα τα μοντέλα και όλες τις χρήσεις. Queries με μεγάλα αρχεία, reasoning ή παραγωγή εικόνας/βίντεο μπορούν να καίνε πολύ περισσότερο. Η Epoch AI εκτιμά ότι πολύ μεγάλα inputs μπορούν να ανεβάσουν το κόστος από περίπου 2,5 Wh έως σχεδόν 40 Wh, ενώ το MIT Sloan σημειώνει ότι η δημιουργία εικόνας με generative AI μπορεί να φτάνει την ενέργεια μιας πλήρους φόρτισης smartphone.
Το κρίσιμο σημείο είναι πως αυτό το νούμερο αφορά ένα μέσο, απλό query κειμένου. Δεν αφορά κάθε πιθανή χρήση της τεχνητής νοημοσύνης. Δεν είναι το ίδιο να ζητά κανείς μια σύντομη απάντηση δύο γραμμών και το ίδιο να ανεβάζει μεγάλα έγγραφα, να ζητά εκτενή ανάλυση, να παράγει εικόνες ή να χρησιμοποιεί πιο σύνθετες δυνατότητες reasoning. Σε αυτές τις περιπτώσεις, το ενεργειακό αποτύπωμα μπορεί να είναι σημαντικά υψηλότερο.
Εδώ ακριβώς βρίσκεται και η παγίδα της υπεραπλούστευσης. Η κατανάλωση ενέργειας στην AI δεν εξαρτάται μόνο από το αν «έκανες μια ερώτηση», αλλά από μια σειρά παραγόντων: ποιο μοντέλο χρησιμοποιείται, πόσο μεγάλο είναι το input, πόσο εκτενές είναι το output, σε τι είδους data center τρέχει η επεξεργασία και πόσο αποδοτικό είναι το hardware που βρίσκεται από πίσω.
Το MIT έχει επισημάνει ότι η generative AI έχει πραγματικό περιβαλλοντικό αποτύπωμα, τόσο σε ενέργεια όσο και σε νερό, ενώ σημειώνει ότι ένα query στο ChatGPT έχει εκτιμηθεί πως καταναλώνει περίπου πέντε φορές περισσότερη ηλεκτρική ενέργεια από μια απλή αναζήτηση στο διαδίκτυο. Αυτή η διαπίστωση είναι ουσιαστική, αλλά απέχει από το να αποδεικνύει ότι «κάθε prompt ισούται με μία λάμπα». Πρόκειται για μια χρήσιμη αναλογία, όχι για απόλυτο κανόνα.
Ακόμη πιο αποκαλυπτική είναι η σύγκριση με άλλες χρήσεις της AI. Σε ανάλυση του MIT Sloan επισημαίνεται ότι η δημιουργία εικόνας με generative AI μπορεί να καταναλώσει ενέργεια αντίστοιχη με μια πλήρη φόρτιση smartphone. Με άλλα λόγια, όσο πιο σύνθετο και «βαρύ» είναι το αίτημα, τόσο περισσότερο απομακρυνόμαστε από την εικόνα του «μικρού κόστους ενός απλού prompt».
Αυτό έχει σημασία και για έναν ακόμη λόγο: οι παλαιότερες εκτιμήσεις για την κατανάλωση του ChatGPT ήταν συχνά υψηλότερες. Νεότερες αναλύσεις δείχνουν ότι η αποδοτικότητα έχει βελτιωθεί χάρη στην εξέλιξη των μοντέλων και του εξοπλισμού. Άρα, η εικόνα μεταβάλλεται γρήγορα και δεν είναι ασφαλές να επαναλαμβάνονται παλαιοί αριθμοί σαν να ισχύουν απαράλλακτα σήμερα.
Το συμπέρασμα για τη χρήση του ChatGPT
Το συμπέρασμα είναι σαφές. Η τεχνητή νοημοσύνη δεν είναι «άυλη» και δεν λειτουργεί χωρίς ενεργειακό κόστος. Κάθε χρήση του ChatGPT επιβαρύνει, έστω και λίγο, τα data centers που το υποστηρίζουν. Ωστόσο, η φράση ότι «κάθε φορά που ρωτάς το ChatGPT είναι σαν να ανάβεις μια λάμπα» είναι περισσότερο ένας επικοινωνιακός συμβολισμός παρά μια ακριβής περιγραφή της πραγματικότητας.
Η ακριβέστερη διατύπωση θα ήταν η εξής: ένα απλό prompt στο ChatGPT καταναλώνει συνήθως μικρή ποσότητα ενέργειας, περίπου όσο μια αποδοτική λάμπα για λίγα λεπτά, αλλά το αποτύπωμα αυξάνεται αισθητά όταν η χρήση γίνεται πιο σύνθετη.
Με λίγα λόγια: Για ένα συνηθισμένο prompt, το «σαν μια LED λάμπα για λίγα λεπτά» είναι κοντά στην πραγματικότητα. Για πιο βαριές εργασίες, το κόστος μπορεί να είναι πολύ μεγαλύτερο.
Σε μια εποχή όπου η τεχνητή νοημοσύνη μπαίνει όλο και πιο βαθιά στην καθημερινότητα, ίσως το ζητούμενο δεν είναι να την αντιμετωπίζουμε με φοβικά ή εντυπωσιοθηρικά συνθήματα, αλλά με πιο καθαρή εικόνα για το πραγματικό της κόστος. Και αυτό το κόστος, όπως συμβαίνει συχνά με την τεχνολογία, δεν είναι ούτε μηδενικό ούτε τόσο απλό όσο χωρά σε έναν τίτλο.
Πηγές για τα στοιχεία του άρθρου: MIT News, Epoch AI, MIT Sloan.