Αυξάνονται και πληθύνονται οι προκλήσεις από την παραγωγική τεχνητή νοημοσύνη (GenAI) που κάνει όλο και πιο αμφισβητήσιμο αυτό που βλέπουμε «με τα μάτια μας» απειλώντας να αλλάξει δραστικά το πώς εκλαμβάνονται οι οπτικές αποδείξεις, οι οποίες μπορούν να είναι τόσο ψεύτικες όσο και ένα fake κείμενο.
«Πρέπει να μάθουμε να κάνουμε παύση και να σκεφτόμαστε αν ένα βίντεο αντανακλά την αληθινή ζωή»
Με αφορμή την εφαρμογή Sora της OpenAI, μέσω της οποίας ο χρήστης μπορεί να φτιάξει ταχύτατα πολύ ρεαλιστικά βίντεο δίνοντας μόνο μια περιγραφή, οι ειδικοί προειδοποιούν ότι η ανθρωπότητα ίσως είναι ανέτοιμη να το διαχειριστεί. Πρόκειται για μια εξαιρετικά διασκεδαστική και εντυπωσιακή εφαρμογή, αλλά σε λάθος χέρια μπορεί να μετατραπεί σε αποτελεσματικό όσο και επικίνδυνο εργαλείο παραπληροφόρησης και απάτης καθώς οι άνθρωποι τείνουμε να εμπιστευόμαστε ό,τι αντιλαμβανόμαστε με τις αισθήσεις μας.
Ένα παράδειγμα του πόσο ανέτοιμοι προφανώς είμαστε για τέτοιες εφαρμογές είναι η νέα viral «τρέλα» των χρηστών στα social, που έχουν γεμίσει τις τελευταίες ημέρες το TikTok με βίντεο που δείχνουν… γιαγιάδες να συλλαμβάνονται από την αστυνομία επειδή, υποτίθεται, έκλεψαν ένα μήλο ή διέπραξαν άλλες «παρανομίες».
Μόνο που τίποτα από αυτά δεν έχει συμβεί στην πραγματικότητα. Ωστόσο ένα μεγάλο ποσοστό χρηστών, ιδιαίτερα όσοι δεν είναι εξοικειωμένοι με το διαδίκτυο, εύκολα πιστεύουν ότι τέτοια βίντεο είναι αυθεντικά. «Το πρόβλημα δεν είναι τα προϊόντα της τεχνητής νοημοσύνης αλλά η απουσία της κριτικής σκέψης. Πρέπει να έχουμε μία παιδεία, να διασταυρώνουμε τις πηγές», εξήγησε μιλώντας στο Mega ο Γιώργος Παπαπροδρόμου, αντιστράτηγος ε.α. και πρώην Διοικητής Δίωξης Ηλεκτρονικού Εγκλήματος.
«Εγώ βλέπω 4 ποινικά αδικήματα. Διασπορά ψευδών ειδήσεων, παράνομη χρήση εικόνας και φωνής, καθώς τα πρόσωπα που δείχνουν είναι υπαρκτά, η συκοφαντική δυσφήμιση και το αδίκημα της εξύβρισης. Είναι επικίνδυνο όταν διαδίδονται τέτοια βίντεο. Πρέπει να είμαστε υποψιασμένοι», πρόσθεσε.
Τα προφανή και τα κακόβουλα
Στο θέμα αναφέρονται και οι New York Times, τονίζοντας ότι από τότε που κυκλοφόρησε η Sora, πολλοί χρήστες ανεβάζουν για πλάκα κατασκευασμένα ρεαλιστικά βίντεο στο διαδίκτυο που δεν έχουν καμία σχέση με την πραγματικότητα αλλά είναι προφανές στον καθένα ότι δεν ανταποκρίνονται στην πραγματικότητα, όπως καυγάδες μεταξύ διάσημων ηθοποιών του Χόλιγουντ ή ρακούν πάνω σε αεροπλάνα.
Όμως άλλοι έχουν χρησιμοποιήσει την AI εφαρμογή για κακόβουλους σκοπούς, διαδίδοντας fake news για ψεύτικα εγκλήματα που δεν συνέβησαν ποτέ και άλλα περιστατικά που προκαλούν το κοινό αίσθημα και συμβάλλουν στην παραπληροφόρηση.
Η άφιξη της Sora, σημειώνει η αμερικανική εφημερίδα, μαζί με παρόμοια εργαλεία GenAI από τη Meta και την Google φέτος έχει τεράστιες συνέπειες. Η τεχνολογία αυτή ίσως σηματοδοτεί το τέλος της οπτικής αλήθειας όπως την ξέρουμε, δηλαδή της ιδέας ότι το βίντεο αποτελεί αντικειμενική καταγραφή της πραγματικότητας, οδηγώντας την κοινωνία να αντιμετωπίζει την εικόνα που βλέπει με την ίδια δυσπιστία που δείχνει ήδη προς τον γραπτό λόγο.
Το «μία φωτογραφία, χίλιες λέξεις» είχε αρχίσει ήδη τα προηγούμενα χρόνια να μην ισχύει όταν όλοι κατάλαβαν πόσο εύκολο είναι να παραποιηθεί η εικόνα. Τώρα είναι η σειρά του βίντεο να «τελειώσει» και αυτό είναι ανησυχητικό.
«Ο εγκέφαλός μας είναι ισχυρά προγραμματισμένος να πιστεύει αυτό που βλέπει, αλλά μπορούμε και πρέπει πλέον να μάθουμε να κάνουμε παύση και να σκεφτόμαστε αν ένα βίντεο – και γενικά οποιοδήποτε μέσο – αντανακλά πραγματικά την αληθινή ζωή», δήλωσε ο Ren Ng, καθηγητής Πληροφορικής στο Μπέρκλεϊ.
Ανησυχίες για τα πνευματικά δικαιώματα
Στο Χόλιγουντ, στούντιο εκφράζουν ανησυχίες ότι βίντεο που δημιουργήθηκαν με την εφαρμογή Sora – η πιο δημοφιλής δωρεάν εφαρμογή στο App Store της Apple αυτή την εβδομάδα – έχουν ήδη παραβιάσει πνευματικά δικαιώματα ταινιών, σειρών και χαρακτήρων. Από την πλευρά του ο διευθύνων σύμβουλος της OpenAI, Sam Altman, δήλωσε ότι η εταιρεία εξετάζει τα δεδομένα και σύντομα θα δώσει στους κατόχους πνευματικών δικαιωμάτων τον έλεγχο στη χρήση χαρακτήρων, καθώς και έναν τρόπο να κερδίσουν χρήματα από την υπηρεσία.
Αν και ο καθένας μπορεί να κατεβάσει δωρεάν την εφαρμογή Sora, η υπηρεσία προς το παρόν λειτουργεί μόνο με προσκλήσεις – δηλαδή, για να φτιάξει κάποιος βίντεο πρέπει να λάβει κωδικό πρόσκλησης από άλλον χρήστη. Πολλοί μοιράζονται τέτοιους κωδικούς σε ιστότοπους όπως το Reddit και εφαρμογές όπως το Discord.
Στη συνέχεια δημιουργούν βίντεο πληκτρολογώντας απλώς τι θέλουν να δείχνει το βίντεο. Μπορούν επίσης να ανεβάσουν μια πραγματική φωτογραφία και να δημιουργήσουν βίντεο πάνω σε αυτήν. Το βίντεο είναι έτοιμο σε περίπου ένα λεπτό, και οι χρήστες μπορούν είτε να το ανεβάσουν στη ροή της εφαρμογής είτε να το κατεβάσουν και να το μοιραστούν στο TikTok, το Instagram ή αλλού.
Μπορούμε να προστατευτούμε;
Το πρόβλημα είναι ότι οποιοδήποτε βίντεο βλέπεις σε εφαρμογές όπως TikTok, Reels, YouTube Shorts και Snapchat έχει πλέον μεγάλη πιθανότητα να είναι ψεύτικο. Η Sora σηματοδοτεί μια καμπή στην εποχή της παραποίησης μέσω GenAI και σύντομα θα εμφανιστούν αντιγραφείς, συμπεριλαμβανομένων κακόβουλων φορέων που θα προσφέρουν δημιουργία βίντεο με τεχνητή νοημοσύνη χωρίς περιορισμούς.
«Κανείς δεν θα δέχεται πλέον βίντεο ως απόδειξη για οτιδήποτε», δήλωσε ο Lucas Hanse, ιδρυτής της CivAI, ενός μη κερδοσκοπικού οργανισμού που εκπαιδεύει τους ανθρώπους στις δυνατότητες της τεχνητής νοημοσύνης.
Ψεύτικα πλάνα από κάμερες αυτοκινήτων που θα μπορούσαν να χρησιμοποιηθούν για ασφαλιστική απάτη, βίντεο με αμφισβητήσιμες ιατρικές συμβουλές, βίντεο δυσφήμισης ανθρώπων, κατασκευασμένα πλάνα σοκαριστικών τροχαίων στον αυτοκινητόδρομο, ανύπαρκτες ειδήσεις για κατά συρροή δολοφόνους, είναι μερικά από αυτά που μπορεί να δημιουργήσει σε ένα λεπτό η Sora. Αν και φέρουν υδατογράφημα με το λογότυπο της εφαρμογής, κάποιοι χρήστες έχουν ήδη βρει τρόπους να το κόβουν. Μερικά, παρ’ όλα αυτά, έχουν μερικά εμφανή λάθη αν τα παρατηρήσεις, όπως ανορθόγραφες ταμπέλες εστιατορίων ή ασυγχρονία ήχου με την κίνηση των χειλιών.
Ωστόσο, οποιαδήποτε συμβουλή για το πώς να αναγνωρίζεις βίντεο που δημιουργήθηκαν με τεχνητή νοημοσύνη είναι καταδικασμένη να έχει σύντομη διάρκεια, επειδή η τεχνολογία εξελίσσεται ραγδαία, προειδοποιεί ο Hany Farid, καθηγητής Πληροφορικής στο Μπέρκλεϊ και ιδρυτής της GetReal Security. «Τα social media είναι ένας κανονικός σκουπιδότοπος» πρόσθεσε, τονίζοντας ότι ο μόνος τρόπος να αποφύγει κάποιος τα ψεύτικα βίντεο είναι να σταματήσει να χρησιμοποιεί εφαρμογές όπως το TikTok, το Instagram και το Snapchat.
Οδηγός επιβίωσης: Πώς να εντοπίσετε ένα deepfake
@showtoolsaiHow to spot AI videos – animals on trampolines#bunnies#dog#bear#bunny#ai♬ original sound – showtools
Οι τεχνολογικοί κολοσσοί (YouTube, TikTok, Meta) απαιτούν από τους δημιουργούς να αποκαλύπτουν το περιεχόμενο που δημιουργείται με Α.Ι. όταν αυτό φαίνεται ρεαλιστικό, αλλά η μάχη ενάντια στην παραπληροφόρηση εξελίσσεται σε ένα διαρκές «whack-a-mole» για τους συντονιστές.
Για να προστατευτείτε, ακολουθήστε τις συμβουλές των ειδικών:
Ελέγξτε την πηγή, εμπιστευτείτε το ένστικτό σας. Όταν όλα μοιάζουν πιστευτά, εμπιστευτείτε το κριτήριο σας, Εάν κάτι φαίνεται έστω και ελαφρώς «περίεργο» (off), το ένστικτό σας θα πρέπει να σας ωθήσει να ψάξετε βαθύτερα.
Δώστε ιδιαίτερη προσοχή σε υλικό «κάμερας». Αν το βίντεο μοιάζει με πλάνα κάμερας ασφαλείας ή κάμερας σώματος (bodycam), μπορεί να είναι deepfake. Οι γεννήτριες Α.Ι. είναι ιδιαίτερα ικανές στη δημιουργία αυτού του τύπου υλικού, καθώς πιθανώς επειδή έχουν εκπαιδευτεί σε μεγάλο όγκο τέτοιων, συχνά κοκκωδών (grainy), βίντεο.
Τέλος, επαληθεύστε την πηγή του δημιουργού. Αν ο δημιουργός ανεβάζει υλικό πριν από το 2024, μπορείτε να υποθέσετε ότι δεν δημιουργήθηκε με Α.Ι. (αν και τα ειδικά εφέ υπήρχαν πάντα).
@showtoolsaiHere’s how to see the AI vibe… but then look closer because it’s just a vibe#meetcute#adorable#dating#goals#aivideoThis video was inspired by a @Sydney Benjamin♬ original sound – showtools
Αναζητήστε φυσικές ανακολουθίες (inconsistencies) όπως χείλη που δεν συγχρονίζονται με την ομιλία ή κινούνται αφύσικα.
Ψάξτε για το «σπογγώδες μπλοκ» ή θαμπά σημεία όπου θα έπρεπε να υπήρχε το υδατογράφημα. Παρατηρήστε αν αντικείμενα εξαφανίζονται χωρίς εξήγηση, αν περνούν το ένα μέσα από το άλλο, ή αν παραβιάζονται οι νόμοι της φυσικής και της βαρύτητας.
Δώστε σημασία στη διάρκεια του κλιπ. Οι περισσότερες εκδόσεις μοντέλων Α.Ι. δημιουργούν βίντεο που δεν ξεπερνούν τα 10 δευτερόλεπτα (αν και αυτό αλλάζει). Ένα μεγαλύτερο βίντεο είναι πιθανότερο να είναι πραγματικό.
Διπλή παγίδα

Η ραγδαία εξέλιξη της Α.Ι. δημιουργεί μια διπλή παγίδα για τους χρήστες σημειώνουν οι New York Times. Τα ρεαλιστικά βίντεο Α.Ι. οδηγούν τους ανθρώπους να αμφισβητούν αυθεντικό υλικό, υπονομεύοντας το ταλέντο, το χιούμορ και τις φυσικές ικανότητες των πραγματικών δημιουργών.
Eπιπλέον, όσο περισσότερο χρόνο αφιερώνει κάποιος μελετώντας ένα βίντεο για να αναζητήσει τα λάθη που μπορούν να μαρτυρήσουν την προέλευση του (π.χ. έξτρα δάχτυλα ή ασυνέπειες σε φυσικούς νόμους), τόσο περισσότερο «εκπαιδεύει» τον αλγόριθμο να του φέρνει τέτοιου είδους περιεχόμενο στην οθόνη.
Ο Καράσκο προτείνει να μπλοκάρετε τους λογαριασμούς που δημιουργούν περιεχόμενο Α.Ι. για να σηματοδοτήσετε την αντίθεσή σας στην πλατφόρμα.
«Αν θεωρείτε τον εντοπισμό βίντεο Α.Ι. ως μια ακόμη δεξιότητα ψηφιακού γραμματισμού, [η προσπάθεια] λειτουργεί. Αλλά, αν νομίζετε ότι θα μπορείτε πάντα να βρίσκετε τη λύση, αυτό δεν πρόκειται να συμβεί» επιβεβαιώνει καθώς η μόνη αλήθεια είναι ότι η τεχνολογία Α.Ι. θα γίνεται μόνο καλύτερη, μεγαλύτερη σε διάρκεια και δυσκολότερη στον εντοπισμό.



