Του Γιάννη Αγγελάκη
Τον τελευταίο μήνα, η OpenAI, γνωστή για το δημοφιλές ChatGPT, έκανε ένα άλμα πέρα από το κείμενο και τις εικόνες, παρουσιάζοντας στο κοινό την εφαρμογή Sora 2 – ένα εργαλείο που επιτρέπει σε οποιονδήποτε να δημιουργήσει ρεαλιστικά βίντεο με απλή περιγραφή σε μορφή κειμένου. Παράδειγμα: «αστυνομική κάμερα σώματος καταγράφει έναν σκύλο που συλλαμβάνεται για κλοπή rib-eye στο Costco».
Κι όμως, παρά την κωμική προσέγγιση ορισμένων χρηστών, η πραγματικότητα που ξεδιπλώθηκε μετά την κυκλοφορία του εργαλείου ήταν σκοτεινή, ανησυχητική και ανεξέλεγκτη.
Από τις πρώτες κιόλας ώρες, η ροή των βίντεο που παράγονταν μέσω του Sora 2 και διαδίδονταν με ταχύτητα στα μέσα κοινωνικής δικτύωσης, περιλάμβανε σκηνές ωμής βίας, ρατσιστικού περιεχομένου και παραπληροφόρησης με πρωταγωνιστές γνωστούς χαρακτήρες, πολιτικές φιγούρες, ηθοποιούς ή ρεπόρτερ που ποτέ δεν υπήρξαν.
Η ίδια η OpenAI, μέσα από τους όρους χρήσης της, απαγορεύει τη δημιουργία περιεχομένου που «προάγει τη βία» ή που «προκαλεί βλάβη». Ωστόσο, ο έλεγχος δεν φαίνεται...
Αυτό το άρθρο είναι μόνο για συνδρομητές
Για να διαβάσετε ολόκληρο το άρθρο, γίνετε συνδρομητής και στηρίξτε την ανεξάρτητη δημοσιογραφία.



