Voice Engine: Εργαλείο κλωνοποίησης φωνής από την OpenAI, δημιουργό του ChatGPT

Κρίνεται πολύ επικίνδυνο για να κυκλοφορήσει ευρέως.
.
.
da-kuk via Getty Images

Ως υπερβολικά επικίνδυνο για να κυκλοφορήσει ευρέως κρίνεται ένα εργαλείο κλωνοποίησης φωνής από την OpenAI, το οποίο μπορεί αναπαράξει τη φωνή του οποιουδήποτε χρησιμοποιώντας μόλις 15 δευτερόλεπτα καταγραφής της.

Όπως αναφέρεται σε δημοσίευμα του Guardian το Voice Engine είχε πρωτοαναπτυχθεί το 2022 και μια αρχική έκδοση είχε χρησιμοποιηθεί για τη λειτουργία text-to-speech στο ChatGPT, το κορυφαίο εργαλείο ΑΙ της OpenAI. Ωστόσο οι δυνατότητές του δεν είχαν παρουσιαστεί ποτέ δημόσια.

«Ελπίζουμε να αρχίσουμε έναν διάλογο ως προς την υπεύθυνη ανάπτυξη συνθετικών φωνών και το πώς η κοινωνία μπορεί να προσαρμοστεί σε αυτές τις νέες δυνατότητες» ανέφερε η OpenAI σε ένα ανυπόγραφο blogpost. «Με βάση αυτές τις συζητήσεις και τα αποτελέσματα αυτών των μικρής κλίμακας τεστ, θα λάβουμε μια απόφαση με περισσότερες πληροφορίες ως προς το πώς θα θέσουμε σε χρήση αυτή την τεχνολογία σε κλίμακα».

Στην ανάρτησή της η εταιρεία κοινοποίησε παραδείγματα χρήσης της τεχνολογίας στον πραγματικό κόσμο από διάφορους συνεργάτες που απέκτησαν πρόσβαση για να φτιάξουν δικές τους εφαρμογές και προϊόντα. Η εταιρεία τεχνολογίας Age of Learning τη χρησιμοποιεί για την παραγωγή voiceovers, ενώ η εφαρμογή HeyGen, «AI visual storytelling», παρέχει σε χρήστες τη δυνατότητα παραγωγής μεταφράσεων καταγεγραμμένου περιεχομένου που είναι άπταιστες και διατηρούν την προφορά και τη φωνή του ομιλητή. Επίσης, ερευνητές στο Norman Prince Neurosciences Institute στο Rhode Island χρησιμοποίησαν ένα 15 δευτερολέπτων μιας νεαρής γυναίκας που πραγματοποιούσε παρουσίαση σε σχολικό project για την «αποκατάσταση της φωνής» που είχε χάσει λόγω όγκου στον εγκέφαλο.

«Επιλέγουμε να κάνουμε preview μα να μην κυκλοφορήσουμε ευρέως αυτή την τεχνολογία σε αυτή τη φάση» ανέφερε η OpenAI, προκειμένου να «ενισχύσομε την κοινωνική ανθεκτικότητα απέναντι στις προκλήσεις από ακόμα πιο πειστικά παραγωγικά μοντέλα». Στο άμεσο μέλλον, είπε πως «ενθαρρύνουμε βήματα όπως η σταδιακή απόσυρση της επαλήθευσης ταυτότητας με βάση τη φωνή ως μέτρο ασφαλείας για την πρόσβαση σε τραπεζικούς λογαριασμούς και άλλες ευαίσθητες πληροφορίες».

Ακόμη, ζητήθηκε η «εξερεύνηση πολιτικών για την προστασία της χρήσης φωνών ατόμων στην ΑΙ» και «εκπαίδευση του κοινού ως προς την κατανόηση των δυνατοτήτων και των περιορισμών των τεχνολογιών ΑΙ, περιλαμβανομένης της πιθανότητας παραπλανητικού περιεχομένου ΑΙ».

Δημοφιλή