Ήδη οι γονείς γνωρίζουν ότι δεν πρέπει να ανεβάζουν φωτογραφίες των παιδιών τους στα κοινωνικά δίκτυα, αλλά αρκετοί είναι εκείνοι που δεν δείχνουν ιδιαίτερη προσοχή. Πλέον τα πράγματα έχουν γίνει ακόμα χειρότερα, με τις δυνατότητες που δίνει η Τεχνητή Νοημοσύνη σε κάποια διεστραμμένα μυαλά να παίρνουν αυτές τις φωτογραφίες και να τις τροποποιούν με αρρωστημένο τρόπο. Έτσι, οι ειδικοί προειδοποιούν ακόμα μια φορά τους γονείς να είναι προσεκτικοί σχετικά με τις φωτογραφίες των παιδιών τους που δημοσιεύουν στο διαδίκτυο.
Οι εικόνες βρέθηκαν στη συσκευή δημιουργίας εικόνων AI των ΗΠΑ Midjourney, η οποία όπως και το ChatGPT χρησιμοποιεί προτροπές για να παραδώσει ένα αποτέλεσμα, αν και αυτές συνήθως αποτελούνται από εικόνες και όχι από λέξεις.
Η πλατφόρμα χρησιμοποιείται από εκατομμύρια και έχει δημιουργήσει τόσο ρεαλιστικές εικόνες που οι άνθρωποι σε όλο τον κόσμο έχουν εξαπατηθεί από αυτές, συμπεριλαμβανομένων των χρηστών στο Twitter .
Για παράδειγμα μια εικόνα του Πάπα Φραγκίσκου να φοράει ένα τεράστιο φουσκωτό λευκό μπουφάν, ήταν τόσο ρεαλιστική που είχε οδηγήσει τους χρήστες των social media σε φρενίτιδα νωρίτερα φέτος.
Υπήρξαν επίσης ψεύτικες εικόνες της σύλληψης του Ντόναλντ Τραμπ και του «The Last Supper Selfie» που δημιουργήθηκαν χρησιμοποιώντας την πλατφόρμα.
Πέρυσι, η πλατφόρμα είχε αντιδράσεις όταν μια εικόνα που δημιουργήθηκε από υπολογιστή κέρδισε την πρώτη θέση σε διαγωνισμό τέχνης στις ΗΠΑ.
Το πρόγραμμα κυκλοφόρησε πρόσφατα μια νέα έκδοση του λογισμικού του, η οποία αύξησε τον φωτορεαλισμό των εικόνων του, απλώς αυξάνει τη δημοτικότητά του.
Μια έρευνα από τους Times διαπίστωσε ότι ορισμένοι χρήστες του Midjourney δημιουργούν μεγάλο αριθμό σεξουαλικών εικόνων παιδιών, καθώς και γυναικών και διασημοτήτων.
Οι χρήστες περνούν από την πλατφόρμα επικοινωνίας Discord για να δημιουργήσουν προτροπές και στη συνέχεια να ανεβάσουν τις εικόνες που προκύπτουν στον ιστότοπο του Midjourney σε μια δημόσια συλλογή.
Παρά το γεγονός ότι η εταιρεία είπε ότι το περιεχόμενο πρέπει να είναι «PG-13 και φιλικό προς την οικογένεια», έχει επίσης προειδοποιήσει ότι επειδή η τεχνολογία είναι νέα, «δεν λειτουργεί πάντα όπως αναμένεται».
Ωστόσο, οι συγκεκριμένες εικόνες που ανακαλύφθηκαν παραβιάζουν τους όρους χρήσης της Midjourney και της Discord.
Αν και οι εικονικές εικόνες σεξουαλικής κακοποίησης παιδιών δεν είναι παράνομες στις ΗΠΑ, περιεχόμενο όπως αυτό – γνωστό ως μη φωτογραφικές εικόνες – στην Αγγλία και την Ουαλία απαγορεύεται.
Ο συνεργάτης επικεφαλής της διαδικτυακής πολιτικής για την ασφάλεια των παιδιών του NSPCC, Richard Collard, δήλωσε: «Είναι εντελώς απαράδεκτο το Discord και το Midjourney να διευκολύνουν ενεργά τη δημιουργία και τη φιλοξενία ταπεινωτικών, καταχρηστικών και σεξουαλικών απεικονίσεων παιδιών.
«Σε ορισμένες περιπτώσεις, αυτό το υλικό θα ήταν παράνομο σύμφωνα με τη νομοθεσία του Ηνωμένου Βασιλείου και με τη φιλοξενία περιεχομένου κακοποίησης παιδιών θέτουν τα παιδιά σε πολύ πραγματικό κίνδυνο βλάβης».
Και πρόσθεσε: «Είναι απίστευτα οδυνηρό για γονείς και παιδιά να κλέβουν τις εικόνες τους και να τις προσαρμόζουν οι παραβάτες.
«Με τη δημοσίευση φωτογραφιών μόνο σε αξιόπιστες επαφές και τη διαχείριση των ρυθμίσεων απορρήτου τους, οι γονείς μπορούν να μειώσουν τον κίνδυνο χρήσης εικόνων με αυτόν τον τρόπο.
«Αλλά, τελικά, οι εταιρείες τεχνολογίας πρέπει να αναλάβουν την ευθύνη για την αντιμετώπιση του τρόπου με τον οποίο χρησιμοποιούνται οι υπηρεσίες τους από τους παραβάτες».
Σε απάντηση στα ευρήματα των Times, η Midjourney είπε ότι θα απαγορεύσει τους χρήστες που παραβίασαν τους κανόνες της.
Ο Διευθύνων Σύμβουλος και ιδρυτής της, David Holz, πρόσθεσε: « Τους τελευταίους μήνες, εργαζόμαστε πάνω σε έναν επεκτάσιμο επόπτη τεχνητής νοημοσύνης, τον οποίο ξεκινήσαμε να δοκιμάζουμε με τη βάση χρηστών αυτήν την περασμένη εβδομάδα».
Εκπρόσωπος της Discord είπε στους Times: «Το Discord έχει μια πολιτική μηδενικής ανοχής για την προώθηση και την κοινή χρήση μη συναινετικού σεξουαλικού υλικού, συμπεριλαμβανομένων των σεξουαλικών πλαστών και του υλικού σεξουαλικής κακοποίησης παιδιών».
Φρίκη: Παιδεραστές χρησιμοποιούν περιβάλλοντα εικονικής πραγματικότητας
Η ανακάλυψη έρχεται εν μέσω αυξανόμενης ανησυχίας για παιδεραστές που εκμεταλλεύονται περιβάλλοντα εικονικής πραγματικότητας.
Νωρίτερα φέτος, μια έρευνα του NSPCC αποκάλυψε για πρώτη φορά πώς πλατφόρμες όπως το metaverse χρησιμοποιούνται για την κακοποίηση παιδιών.
Τα δεδομένα έδειξαν ότι οι αστυνομικές δυνάμεις του Ηνωμένου Βασιλείου είχαν καταγράψει οκτώ παραδείγματα όπου οι χώροι εικονικής πραγματικότητας (VR) χρησιμοποιήθηκαν για εγκλήματα εικόνας σεξουαλικής κακοποίησης παιδιών.
Το metaverse, το οποίο καθοδηγείται κυρίως από τον Mark Zuckerberg του Meta , είναι ένα σύνολο εικονικών χώρων όπου μπορείτε να παίξετε, να εργαστείτε και να επικοινωνήσετε με άλλους που δεν βρίσκονται στον ίδιο φυσικό χώρο με εσάς.
Ο ιδρυτής του Facebook υπήρξε ηγετική φωνή στο concept, το οποίο θεωρείται ως το μέλλον του Διαδικτύου και θα θολώσει τα όρια μεταξύ του φυσικού και του ψηφιακού.
Η αστυνομία των Δυτικών Μίντλαντς κατέγραψε πέντε περιπτώσεις κατάχρησης μεταβάσεων και του Warwickshire μία, ενώ η αστυνομία του Σάρεϊ κατέγραψε δύο εγκλήματα – συμπεριλαμβανομένου ενός που αφορούσε τα ακουστικά Oculus του Meta, που τώρα ονομάζεται Quest.
ΠΩΣ ΝΑ ΕΝΤΟΠΙΣΕΤΕ ΕΝΑ DEEPFAKE
1. Αφύσικη κίνηση των ματιών . Οι κινήσεις των ματιών που δεν φαίνονται φυσικές – ή η έλλειψη κίνησης των ματιών, όπως η απουσία αναλαμπής – είναι τεράστιες κόκκινες σημαίες. Είναι δύσκολο να αναπαράγετε την πράξη του βλεφαρίσματος με τρόπο που φαίνεται φυσικός. Είναι επίσης δύσκολο να αναπαράγετε τις κινήσεις των ματιών ενός πραγματικού ατόμου. Αυτό συμβαίνει επειδή τα μάτια κάποιου συνήθως ακολουθούν το άτομο με το οποίο μιλάει.
2. Αφύσικες εκφράσεις προσώπου . Όταν κάτι δεν φαίνεται σωστά σε ένα πρόσωπο, θα μπορούσε να σηματοδοτήσει τη μεταμόρφωση του προσώπου. Αυτό συμβαίνει όταν μια εικόνα έχει συρραφεί πάνω σε μια άλλη.
3. Δύστροπη τοποθέτηση με χαρακτηριστικά προσώπου . Εάν το πρόσωπο κάποιου δείχνει προς τη μία κατεύθυνση και η μύτη του δείχνει άλλη, θα πρέπει να είστε δύσπιστοι σχετικά με την αυθεντικότητα του βίντεο.
4. Έλλειψη συναισθήματος . Μπορείτε επίσης να εντοπίσετε αυτό που είναι γνωστό ως «μορφοποίηση προσώπου» ή ράμματα εικόνας εάν το πρόσωπο κάποιου δεν φαίνεται να εμφανίζει το συναίσθημα που θα έπρεπε να ταιριάζει με αυτό που υποτίθεται ότι λέει.
5. Παράξενο σώμα ή στάση σώματος . Ένα άλλο σημάδι είναι εάν το σχήμα του σώματος ενός ατόμου δεν φαίνεται φυσικό ή υπάρχει άβολη ή ασυνεπής τοποθέτηση του κεφαλιού και του σώματος. Αυτή μπορεί να είναι μια από τις ευκολότερες ασυνέπειες να εντοπιστούν, επειδή η τεχνολογία deepfake συνήθως εστιάζει στα χαρακτηριστικά του προσώπου και όχι σε ολόκληρο το σώμα.
6. Αφύσικη κίνηση του σώματος ή σχήμα σώματος . Εάν κάποιος φαίνεται παραμορφωμένος ή σβησμένος όταν γυρίζει στο πλάι ή κινεί το κεφάλι του ή οι κινήσεις του είναι σπασμωδικές και ασύνδετες από το ένα καρέ στο άλλο, θα πρέπει να υποψιάζεστε ότι το βίντεο είναι ψεύτικο.
7. Αφύσικος χρωματισμός . Ο μη φυσιολογικός τόνος δέρματος, ο αποχρωματισμός, ο περίεργος φωτισμός και οι άστοχες σκιές είναι όλα σημάδια ότι αυτό που βλέπετε είναι πιθανότατα ψεύτικο.
8. Μαλλιά που δεν φαίνονται αληθινά . Δεν θα δείτε φριζαρισμένα ή που πετούν μαλλιά. Γιατί; Οι ψεύτικες εικόνες δεν θα μπορούν να δημιουργήσουν αυτά τα μεμονωμένα χαρακτηριστικά.
9. Δόντια που δεν φαίνονται αληθινά . Οι αλγόριθμοι μπορεί να μην είναι σε θέση να δημιουργήσουν μεμονωμένα δόντια, επομένως η απουσία περιγραμμάτων μεμονωμένων δοντιών θα μπορούσε να αποτελεί ένδειξη.
10. Θάμπωμα ή κακή ευθυγράμμιση. Εάν οι άκρες των εικόνων είναι θολές ή τα γραφικά δεν ευθυγραμμίζονται — για παράδειγμα, εκεί που το πρόσωπο και ο λαιμός κάποιου συναντούν το σώμα του — θα καταλάβετε ότι κάτι δεν πάει καλά.
11. Ασυνεπής θόρυβος ή ήχος. Οι δημιουργοί Deepfake συνήθως αφιερώνουν περισσότερο χρόνο στις εικόνες βίντεο παρά στον ήχο. Το αποτέλεσμα μπορεί να είναι κακός συγχρονισμός χειλιών, ρομποτικές φωνές, παράξενη προφορά λέξεων, ψηφιακός θόρυβος φόντου ή ακόμα και η απουσία ήχου.
12. Εικόνες που φαίνονται αφύσικες όταν επιβραδύνονται . Εάν παρακολουθείτε ένα βίντεο σε μια οθόνη που είναι μεγαλύτερη από το smartphone σας ή έχετε λογισμικό επεξεργασίας βίντεο που μπορεί να επιβραδύνει την αναπαραγωγή ενός βίντεο, μπορείτε να κάνετε μεγέθυνση και να εξετάσετε τις εικόνες πιο προσεκτικά. Το μεγέθυνση στα χείλη, για παράδειγμα, θα σας βοηθήσει να δείτε αν μιλούν πραγματικά ή αν είναι κακός ο συγχρονισμός των χειλιών.
13. Ασυμφωνίες hashtag . Υπάρχει ένας κρυπτογραφικός αλγόριθμος που βοηθά τους δημιουργούς βίντεο να δείχνουν ότι τα βίντεό τους είναι αυθεντικά. Ο αλγόριθμος χρησιμοποιείται για την εισαγωγή hashtag σε ορισμένα σημεία σε ένα βίντεο. Εάν τα hashtag αλλάξουν, τότε θα πρέπει να υποψιάζεστε χειραγώγηση βίντεο.
14. Ψηφιακά αποτυπώματα. Η τεχνολογία Blockchain μπορεί επίσης να δημιουργήσει ένα ψηφιακό δακτυλικό αποτύπωμα για βίντεο. Αν και δεν είναι αλάνθαστη, αυτή η επαλήθευση που βασίζεται σε blockchain μπορεί να βοηθήσει στη διαπίστωση της αυθεντικότητας ενός βίντεο. Ετσι δουλευει. Όταν δημιουργείται ένα βίντεο, το περιεχόμενο καταχωρείται σε ένα καθολικό που δεν μπορεί να αλλάξει. Αυτή η τεχνολογία μπορεί να βοηθήσει στην απόδειξη της αυθεντικότητας ενός βίντεο.
15. Αντίστροφες αναζητήσεις εικόνων . Μια αναζήτηση για μια πρωτότυπη εικόνα ή μια αντίστροφη αναζήτηση εικόνας με τη βοήθεια υπολογιστή, μπορεί να αποκαλύψει παρόμοια βίντεο στο διαδίκτυο για να προσδιορίσει εάν μια εικόνα, ήχος ή βίντεο έχει τροποποιηθεί με οποιονδήποτε τρόπο. Αν και η τεχνολογία αντίστροφης αναζήτησης βίντεο δεν είναι ακόμη δημόσια διαθέσιμη, η επένδυση σε ένα εργαλείο όπως αυτό θα μπορούσε να είναι χρήσιμη.
(photo: pixabay)