9.8 C
Chania
Wednesday, December 25, 2024

Χιλιάδες εξαπατήθηκαν από φωνές Α.Ι. που μιμούνται φωνές αγαπημένων προσώπων σε καταστάσεις έκτακτης ανάγκης – Ποιος ο κίνδυνος για τη Δημοκρατία

Ημερομηνία:

Τα μοντέλα τεχνητής νοημοσύνης που έχουν σχεδιαστεί για να προσομοιώνουν τη φωνή ενός ατόμου διευκολύνουν απατεώνες να μιμούνται τις φωνές αγαπημένων πρόσωπων και να εξαπατούν ευάλωτα άτομα κλέβοντας έτσι χιλιάδες δολάρια, ανέφερε η Washington Post .

Γρήγορα εξελισσόμενα σε πολυπλοκότητα, τα νέα λογισμικά δημιουργίας φωνής τεχνητής νοημοσύνης απαιτούν μόνο λίγες προτάσεις ήχου για να παράγουν πειστικά ομιλία που μεταφέρει τον ήχο και τον συναισθηματικό τόνο της φωνής ενός ομιλητηΓια όσους στοχοποιούνται από αυτές τις εφαρμογές — είναι συχνά οι ηλικιωμένοι, ανέφερε η Post— γίνεται όλο και πιο δύσκολο να ανιχνεύσουν πότε μια φωνή δεν είναι αυθεντική, ακόμη και όταν οι καταστάσεις έκτακτης ανάγκης που περιγράφονται από απατεώνες φαντάζουν απίθανες.

Οι τεχνολογικές εξελίξεις διευκολύνουν τους απατεώνες που σπεύδουν να εκμεταλλευθούν τους χειρότερους φόβους των ανθρώπων. Θύματα αυτών του είδους απατών εξέφρασαν στην Post ότι ένιωθαν «βαθιά φρίκη» ακούγοντας αυτό που έμοιαζε με άμεσες παρακλήσεις από καλούς τους φίλους ή από μέλη της οικογένειας τους που είχαν άμεση ανάγκη βοήθειας. Ένα ζευγάρι έστειλε 15.000 δολάρια μέσω ενός τερματικού bitcoin σε έναν απατεώνα αφού πίστεψε ότι είχαν μιλήσει με τον γιο τους που υπέφερε. Η φωνή που δημιουργήθηκε από την τεχνητή νοημοσύνη τους είπε ότι χρειαζόταν νομικές αμοιβές αφού ενεπλάκη σε αυτοκινητιστικό δυστύχημα που σκότωσε έναν Αμερικανό διπλωμάτη.

Σύμφωνα με την Ομοσπονδιακή Επιτροπή Εμπορίου, οι συγκεκριμένες απάτες γίνεται όλο και πιο  συχνές στις Ηνωμένες Πολιτείες. Ήταν ο πιο συχνός τύπος απάτης που αναφέρθηκε το 2022 και προκάλεσε τις δεύτερες υψηλότερες απώλειες για αυτούς που στοχεύτηκαν. Από 36.000 αναφορές, περισσότερα από 5.000 θύματα εξαπατήθηκαν χάνοντας πάνω από 11 εκατομμύρια δολάρια μέσω τηλεφώνου.

Επειδή αυτές οι απάτες μπορούν να πραγματοποιηθούν από οπουδήποτε σημείο στον πλανήτη, είναι εξαιρετικά δύσκολο για τις αρχές να τις καταπολεμήσουν, ανέφερε η Post. Όχι μόνο είναι δύσκολο να εντοπίσουν τις κλήσεις ή τους απατεώνες και να ανακτήσουν τα χρήματα, αλλά μερικές φορές είναι επίσης δύσκολο να αποφασίσουν ποιες υπηρεσίες έχουν δικαιοδοσία να διερευνήσουν μεμονωμένες περιπτώσεις όταν απατεώνες δραστηριοποιούνται εκτός συνόρων ΗΠΑ. Ακόμη και όταν είναι προφανές ποια υπηρεσία θα πρέπει να διερευνήσει, ορισμένες υπηρεσίες δεν είναι επί του παρόντος επαρκείς για να χειριστούν τον αυξανόμενο αριθμό πλαστοπροσωπιών.

Ο Will Maxson, βοηθός διευθυντής στο τμήμα πρακτικών μάρκετινγκ της FTC, είπε στην Post ότι προς το παρόν η ευαισθητοποίηση σχετικά με τις απάτες που βασίζονται σε προσομοιωτές φωνής AI είναι η καλύτερη άμυνα που έχουν οι πολίτες. Συνιστάται οποιαδήποτε αιτήματα για μετρητά να αντιμετωπίζονται με σκεπτικισμό όσο αληθινές και γνωστές αν ακούγονται οι φωνές που προχωρούν στην επίκκληση. Πριν στείλετε χρήματα, προσπαθήστε να επικοινωνήσετε με το άτομο που φαίνεται να ζητά βοήθεια μέσω άλλων μεθόδων εκτός από φωνητικές κλήσεις.

Διασφαλίσεις κατά της πλαστοπροσωπίας φωνής AI

Τα εργαλεία μοντελοποίησης φωνής με τεχνητή νοημοσύνη έχουν χρησιμοποιηθεί για τη βελτίωση της δημιουργίας κειμένου σε ομιλία, τη δημιουργία νέων δυνατοτήτων για επεξεργασία ομιλίας και την επέκταση της μαγείας των ταινιών κλωνοποιώντας διάσημες φωνές όπως αυτή του Darth Vader . Αλλά η δύναμη της εύκολης παραγωγής πειστικών προσομοιώσεων φωνής έχει ήδη προκαλέσει σκάνδαλα και κανείς δεν ξέρει ποιος φταίει όταν γίνεται κατάχρηση της τεχνολογίας.

Νωρίτερα φέτος, υπήρξε αντίδραση όταν ορισμένα μέλη του 4chan δημιούργησαν ψεύτικες φωνές διασημοτήτων που έκαναν ρατσιστικές, προσβλητικές ή βίαιες δηλώσεις. Σε εκείνο το σημείο, έγινε σαφές ότι οι εταιρείες έπρεπε να εξετάσουν το ενδεχόμενο προσθήκης περισσότερων διασφαλίσεων για να αποτρέψουν την κακή χρήση της τεχνολογίας, ανέφερε το Vice —ή δυνητικά κινδυνεύουν να θεωρηθούν συνυπεύθυνες για πρόκληση σημαντικής ζημιάς, όπως η καταστροφή της φήμης διάσημων ανθρώπων.

Τα δικαστήρια δεν έχουν αποφασίσει ακόμη πότε ή εάν οι εταιρείες θα θεωρηθούν υπεύθυνες για βλάβες που προκαλούνται από την τεχνολογία deepfake φωνής -ή οποιαδήποτε άλλη ολοένα και πιο δημοφιλή τεχνολογία AI, όπως το ChatGPT – όπου οι κίνδυνοι δυσφήμισης και παραπληροφόρησης φαίνεται να αυξάνονται.

Ενδέχεται να υπάρχει αυξανόμενη πίεση στα δικαστήρια και τις ρυθμιστικές αρχές να θέσουν υπό έλεγχο την τεχνητή νοημοσύνη, ωστόσο, πολλές εταιρείες φαίνεται να κυκλοφορούν προϊόντα τεχνητής νοημοσύνης χωρίς να γνωρίζουν πλήρως τους κινδύνους που εμπεριέχονται.

Αυτήν τη στιγμή, ορισμένες εταιρείες φαίνεται απρόθυμες να επιβραδύνουν τις εκδόσεις δημοφιλών λειτουργιών AI, συμπεριλαμβανομένων των αμφιλεγόμενων που επιτρέπουν στους χρήστες να μιμούνται τις φωνές των διασημοτήτων. Πιο πρόσφατα, η Microsoft κυκλοφόρησε μια νέα δυνατότητα κατά τη διάρκεια της προεπισκόπησης της Bing AI που μπορεί να χρησιμοποιηθεί για να μιμηθεί διασημότητες, ανέφερε το Gizmodo .

Η Microsoft δεν απάντησε στο αίτημα του Ars για σχολιασμό σχετικά με το πόσο καλά λειτουργούν επί του παρόντος οι διασφαλίσεις για να εμποδίσουν τον εξομοιωτή φωνής διασημοτήτων να παράγει προσβλητικό λόγο. Η Gizmodo επεσήμανε ότι, όπως πολλές εταιρείες που επιθυμούν να επωφεληθούν από τη διαδεδομένη γοητεία με τα εργαλεία τεχνητής νοημοσύνης, η Microsoft βασίζεται στους εκατομμύρια χρήστες της για να δοκιμάσουν beta το «ακόμα δυσλειτουργικό AI», το οποίο φαίνεται ότι μπορεί να χρησιμοποιηθεί για να δημιουργήσει αμφιλεγόμενη ομιλία παρουσιάζοντάς το ως παρωδία. Ο χρόνος θα δείξει πόσο αποτελεσματικές είναι οι πρώιμες λύσεις για τον μετριασμό των κινδύνων.

Το 2021, η FTC κυκλοφόρησε οδηγίες τεχνητής νοημοσύνης , λέγοντας στις εταιρείες ότι τα προϊόντα πρέπει να «κάνουν περισσότερο καλό παρά κακό» και ότι οι εταιρείες θα πρέπει να είναι έτοιμες να λογοδοτήσουν για τους κινδύνους από τη χρήση προϊόντων. Πιο πρόσφατα, η FTC είπε στις εταιρείες: «Πρέπει να γνωρίζετε για τους εύλογα προβλέψιμους κινδύνους και τον αντίκτυπο του προϊόντος σας με τεχνητή νοημοσύνη πριν το διαθέσετε στην αγορά».

Αviv Ovadya: Κίνδυνος για τη δημοκρατία η αδυναμία διάκρισης του αληθινού από το ψεύτικο

Ο ερευνητής σε θέματα τεχνητής νοημοσύνης και δημοκρατίας, Αviv Ovadya εκφράζει τον φόβο ότι εισερχόμαστε σε ένα επικίνδυνο στάδιο για τη δημοκρατία.

Όπως σημειώνει βρισκόμαστε σε ένα σημείο όπου οι εταιρείες που δημιουργούν αυτές τις τεχνολογίες καλούνται να αποφασίσουν αν το προϊόν τους θα διατίθεται ελεύθερα προς όλους τους χρήστες ή αν οι ίδιες θα αποφασίσουν με ποιον τρόπο θα γίνεται η διάδοσή τους. Όμως και οι δύο προοπτικές δε μοιάζουν ιδιαίτερα καλές.

Όπως σημειώνει, αυτές οι τεχνολογίες επιτρέπουν σε κακόβουλους παίκτες να έχουν εξαιρετικά μεγάλη δύναμη για να εξαπατούν συμπολίτες τους και αυτό εν τέλει δεν είναι καλό ακόμη και για τη δημοκρατία.

“Το πρόβλημα που έχουμε να αντιμετωπίσουμε είναι ότι τα δημοκρατικά συστήματά μας είναι πολύ αργά στο να λαμβάνουν αποφάσεις ενώ οι προόδοι στην Τεχνητή Νοημοσύνη συμβαίνουν πλέον εξαιρετικά γρήγορα και συντελούνται σε παγκόσμια κλίμακα”, λέει.

Σχετικά με την τεχνολογία μίμησης φωνής μέσω τεχνητής νοημοσύνης σημειώνει ότι αν και είναι εξαιρετικά χρήσιμη ως τεχνολογία όταν χρησιμοποιείται για μετάφραση του λόγου ενός ατόμου σε διάφορες γλώσσες ώστε να ακούγεται ότι μιλάμε πραγματικά εμείς, το αρνητικό είναι ότι κάποιος άλλος μπορεί να χρησιμοποιήσει την ίδια τεχνολογία για να αντιγράψει τη φωνή για να πουν οτιδήποτε αυτοί θέλουν.

“Παλιότερα οι εταιρείες αναλαμβάναν την ευθύνη ώστε να μη συμβεί αυτό όμως με την είσοδο πολλών νέων εταρειών με ανταγωνιστικά προϊόντα, άνοιξε το κουτί της πανδώρας αφού πλέον οι δικλείδες ασφαλείες έχουν καταρρεύσει. Απλά είναι πιο οικονομικό να μην υπάρχουν μέτρα ασφαλείας”

Ο Αviv Ovadya θεωρεί ότι αντιμετωπίζουμε τον πραγματικό κίνδυνο να βρεθούμε σε έναν κόσμο όπου οι άνθρωποι θα δυσκολεύονται πάρα πολύ να καταλάβουν τι είναι αληθινό και τι ψεύτικο με αποτέλεσμα στο τέλος να παραιτούνται από κάθε προσπάθεια διαχωρισμού. Ο όρος ο οποίος περιγράφει αυτή τη νέα πραγματικότητα είναι “απάθεια σε σχέση με την πραγματικότητα”.

“Αυτό δεν είναι κάτι που θέλουμε να συμβεί σε μεγάλη κλίμακα αν θέλουμε να έχουμε μία λειτουργική κοινωνία, μία λειτουργική δημοκρατία. Οι κοινωνίες μας βασίζονται πάνω στις σχέσεις εμπιστοσύνης μεταξύ των ανθρώπων, το ιδιο και η οικονομία και η πολιτική. Εισερχόμαστε σε ένα πολύ σκοτεινό μέρος όταν δεν ξέρουμε πια τι να πιστέψουμε”.

 

"google ad"

Ακολουθήστε το agonaskritis.gr στο Google News, στο facebook και στο twitter και μάθετε πρώτοι όλες τις ειδήσεις

Αγώνας της Κρήτηςhttp://bit.ly/agonaskritis
Ο “Αγώνας της Κρήτης” εκδόθηκε στις 8 Ιουλίου του 1981. Είναι η έκφραση μιας πολύχρονης αγωνιστικότητας. Έμεινε όλα αυτά τα χρόνια σταθερός στη διακήρυξή του για έγκυρη – έγκαιρη ενημέρωση χωρίς παρωπίδες. Υπηρετεί και προβάλλει, με ευρύτητα αντίληψης, αξίες και οράματα για μία καλύτερη κοινωνία. Η βασική αρχή είναι η κριτική στην εξουσία όποια κι αν είναι αυτή, ιδιαίτερα στα σημεία που παρεκτρέπεται από τα υποσχημένα, που μπερδεύεται με τη διαφθορά, που διαφθείρεται και διαφθείρει. Αυτός είναι και ο βασικός λόγος που η εφημερίδα έμεινε μακριά από συσχετισμούς και διαπλοκές, μακριά από μεθοδεύσεις και ίντριγκες.

Τελευταία Νέα

Περισσότερα σαν αυτό
ΕΠΙΚΑΙΡΟΤΗΤΑ

32 επιζώντες από τους 67 επιβαίνοντες από το αεροπορικό δυστύχημα στο Καζακστάν

Τριάντα δύο επιζώντες υπάρχουν μετά το αεροπορικό δυστύχημα στο Καζακστάν, σύμφωνα...

Από όλους εμάς στον “Αγώνα της Κρήτης”, ευχές από καρδιάς για Καλά Χριστούγεννα!

Αγαπητοί αναγνώστες, Ευχαριστούμε που είστε δίπλα μας και μας εμπνέετε...

Χριστούγεννα στην Κρήτη με απρόβλεπτη χιονόπτωση

Η ψυχρή αέρια μάζα που έφτασε στην Κρήτη, σε...