Κλωνοποίηση φωνής με Τεχνητή Νοημοσύνη – Η νέα απάτη που σαρώνει

Ο σκοπός της απάτης απαγωγής με τεχνητή νοημοσύνη είναι να τρομάξει τα θύματα να βάλουν μεγάλα χρηματικά ποσά με αντάλλαγμα την ασφάλεια του αγαπημένου τους προσώπου.

Οι τηλεφωνικές απάτες υπάρχουν εδώ και καιρό, αλλά οι πρόσφατες εξελίξεις στην τεχνολογία τεχνητής νοημοσύνης διευκολύνουν τους δράστες να πείσουν τους ανθρώπους ότι απήγαγαν τα αγαπημένα τους πρόσωπα.

Οι απατεώνες χρησιμοποιούν την τεχνητή νοημοσύνη για να αναπαράγουν τις φωνές των μελών της οικογένειας των ανθρώπων σε πλαστά σχέδια απαγωγής που πείθουν τα θύματα να στείλουν χρήματα στους απατεώνες με αντάλλαγμα την ασφάλεια των αγαπημένων τους.

Το σχέδιο στόχευσε πρόσφατα δύο θύματα σε σχολική περιοχή της πολιτείας της Ουάσιγκτον.

Τα δημόσια σχολεία Highline στο Burien της Ουάσιγκτον εξέδωσαν μια ανακοίνωση στις 25 Σεπτεμβρίου που ειδοποιούσαν τα μέλη της κοινότητας ότι τα δύο άτομα έγιναν στόχος “απατεώνων που ισχυρίστηκαν ψευδώς ότι απήγαγαν ένα μέλος της οικογένειας”.

«Οι απατεώνες έπαιξαν ηχογράφηση που δημιουργήθηκε από AI του μέλους της οικογένειας και μετά ζήτησαν λύτρα», έγραψε η σχολική περιφέρεια. «Το Ομοσπονδιακό Γραφείο Ερευνών (FBI) έχει σημειώσει μια αύξηση σε εθνικό επίπεδο σε αυτές τις απάτες, με ιδιαίτερη έμφαση στις οικογένειες που μιλούν μια γλώσσα διαφορετική από την αγγλική».

Τον Ιούνιο, μια μητέρα από την Αριζόνα, Τζένιφερ Ντε Στέφανο, κατέθεσε ενώπιον του Κογκρέσου για το πώς οι απατεώνες χρησιμοποίησαν την τεχνητή νοημοσύνη για να την κάνουν να πιστέψει ότι η κόρη της είχε απαχθεί σε σχέδιο εκβιασμού 1 εκατομμυρίου δολαρίων. Ξεκίνησε εξηγώντας την απόφασή της να απαντήσει σε μια κλήση από έναν άγνωστο αριθμό το απόγευμα της Παρασκευής.

«Απάντησα στο τηλέφωνο «Γεια». Στην άλλη άκρη ήταν η κόρη μας Μπριάνα που έκλαιγε και έλεγε «μαμά», έγραψε η Ντε Στέφανο στην κατάθεσή της στο Κογκρέσο. “Στην αρχή, δεν σκέφτηκα τίποτα. … Τη ρώτησα αδιάφορα τι συνέβη και η Briana συνέχισε λέγοντας: “Μαμά, τα έκανα θάλασσα”, με περισσότερο κλάμα και λυγμούς .”

Εκείνη την εποχή, η DeStefano δεν είχε ιδέα ότι ένας κακός ηθοποιός είχε χρησιμοποιήσει AI για να αναπαράγει τη φωνή της κόρης της στην άλλη γραμμή.
Στη συνέχεια άκουσε μια αντρική φωνή από την άλλη άκρη να φωνάζει στην κόρη της, καθώς η Briana ,η φωνή της, τουλάχιστον— συνέχισε να ουρλιάζει ότι κακοί άντρες την είχαν απαγάγει.

«Η Μπριάνα ήταν στο παρασκήνιο και παρακαλούσε απεγνωσμένα, «Μαμά βοήθησέ με!»».
“Ένας απειλητικός και χυδαίος άντρας απάντησε στη συνέχεια. “Άκου εδώ, έχω την κόρη σου, δεν θα το πεις σε κανέναν, δεν θα καλέσεις την αστυνομία, αλλιώς θα της βάλω στο στομάχι τόσα ναρκωτικά, θα την πάρω μαζί μου στο Μεξικό και δεν θα την ξαναδείτε ποτέ!”, έλεγε όλη την ώρα που η Briana βρισκόταν στο παρασκήνιο και παρακαλούσε απεγνωσμένα, «Μαμά, βοήθησέ με!»» είπε η DeStefano.

Οι άνδρες ζήτησαν λύτρα 1 εκατομμυρίου δολαρίων σε αντάλλαγμα για την ασφάλεια της Briana, καθώς η DeStefano προσπάθησε να επικοινωνήσει με φίλους, την οικογένεια και την αστυνομία για να τη βοηθήσει να εντοπίσει την κόρη της. Όταν η DeStefano είπε στους απατεώνες ότι δεν είχε 1 εκατομμύριο δολάρια, ζήτησαν 50.000 δολάρια σε μετρητά για να την παραλάβουν αυτοπροσώπως.

Ενώ γίνονταν αυτές οι διαπραγματεύσεις, ο σύζυγος της DeStefano εντόπισε την Briana με ασφάλεια στο σπίτι στο κρεβάτι της χωρίς να γνωρίζει την απάτη που αφορούσε τη δική της φωνή.

Η DeStefano ολοκλήρωσε τη μαρτυρία της σημειώνοντας πώς η τεχνητή νοημοσύνη δυσκολεύει τους ανθρώπους να πιστεύουν στα μάτια τους και να ακούν με τα αυτιά τους — ιδιαίτερα σε εικονικές ρυθμίσεις ή στο τηλέφωνο.

Είναι σε θέση να αναπαράγουν τη φωνή ενός ατόμου μέσω δύο βασικών τακτικών: πρώτον, συλλέγοντας δεδομένα από τη φωνή ενός ατόμου εάν ανταποκριθεί σε μια άγνωστη κλήση από απατεώνες, οι οποίοι στη συνέχεια θα χρησιμοποιήσουν την τεχνητή νοημοσύνη για να χειραγωγήσουν την ίδια φωνή και δεύτερον, συλλέγοντας δεδομένα από τη φωνή ενός ατόμου μέσω δημόσιων βίντεο που δημοσιεύονται στα μέσα κοινωνικής δικτύωσης.

“Όσο περισσότερο μιλάτε, τόσο περισσότερα δεδομένα συλλέγουν.”
Αυτό λέει ο Beenu Arora, Διευθύνων Σύμβουλος και πρόεδρος της Cyble, μιας εταιρείας κυβερνοασφάλειας που χρησιμοποιεί λύσεις βασισμένες στην τεχνητή νοημοσύνη.

“Η πρόθεση είναι να λάβουν τα σωστά δεδομένα μέσω της φωνής σας, τα οποία μπορούν να κλωνοποιήσουν … μέσω κάποιου Μοντέλου AI», εξήγησε η Arora. «Και αυτό γίνεται πολύ πιο εμφανές τώρα».
Πρόσθεσε ότι «η εξαγωγή ήχου από ένα βίντεο» στα μέσα κοινωνικής δικτύωσης «δεν είναι τόσο δύσκολη».

Η υπηρεσία συνιστά επίσης τα άτομα που στοχοποιούνται από αυτό το έγκλημα να προσπαθήσουν να επιβραδύνουν την κατάσταση, να ζητήσουν να μιλήσουν απευθείας με το θύμα, να ζητήσουν περιγραφή του θύματος, να ακούσουν προσεκτικά τη φωνή του θύματος και να προσπαθήσουν να επικοινωνήσουν με το θύμα ξεχωριστά μέσω κλήσης, μηνύματος κειμένου ή άμεσο μήνυμα.

Πιο πρόσφατα, ωστόσο, λόγω των εξελίξεων στην τεχνητή νοημοσύνη, οι απατεώνες μπορούν να αναπαράγουν τη φωνή ενός αγαπημένου προσώπου χρησιμοποιώντας βίντεο στα μέσα κοινωνικής δικτύωσης για να κάνουν την πλοκή της απαγωγής να φαίνεται πιο αληθινή. Με άλλα λόγια, μπορούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη για να αναπαράγουν τη φωνή ενός αγαπημένου τους προσώπου, χρησιμοποιώντας δημόσια διαθέσιμα βίντεο στο διαδίκτυο, για να κάνουν τους στόχους τους να πιστέψουν ότι τα μέλη της οικογένειάς τους ή οι φίλοι τους έχουν απαχθεί.

Οι καλούντες συνήθως παρέχουν στο θύμα πληροφορίες σχετικά με το πώς να στείλει χρήματα σε αντάλλαγμα για την ασφαλή επιστροφή του αγαπημένου τους προσώπου, αλλά οι ειδικοί προτείνουν στα θύματα αυτού του εγκλήματος να σκεφτούν ψύχραιμα αν αυτό που ακούνε από την άλλη γραμμή είναι αληθινό, ακόμα και σε μια στιγμή πανικού.

Ο Arora πρόσθεσε ότι ενώ υπάρχουν ορισμένα εργαλεία με επίκεντρο την τεχνητή νοημοσύνη που χρησιμοποιούνται για τον προληπτικό εντοπισμό και την καταπολέμηση των απατών με τεχνητή νοημοσύνη, λόγω του γρήγορου ρυθμού αυτής της αναπτυσσόμενης τεχνολογίας, υπάρχει μακρύς δρόμος για όσους εργάζονται για να αποτρέψουν τους απατεώνες να επωφεληθούν από άγνωστα θύματα. Όποιος πιστεύει ότι έχει πέσει θύμα αυτού του είδους απάτης θα πρέπει να επικοινωνήσει με το τοπικό αστυνομικό τμήμα.

photo: pixabay

ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ

ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ

ΠΑΡΑΞΕΝΑ

LATEST

Κύρια Θέματα

ΕΥΚΑΙΡΙΕΣ ΑΓΟΡΩΝ

Κάθε μέρα μαζί