Συνήθως ξεκινά με μια φωτογραφία κατεβασμένη από τα μέσα κοινωνικής δικτύωσης.
Σε όλο τον κόσμο, έφηβα αγόρια αποθηκεύουν εικόνες από Instagram και Snapchat κοριτσιών που γνωρίζουν από το σχολείο και χρησιμοποιούν εφαρμογές «γδυσίματος» για να δημιουργούν ψεύτικες γυμνές φωτογραφίες ή βίντεό τους. Αυτά τα deepfakes μπορούν να διαδοθούν γρήγορα σε ολόκληρα σχολεία, αφήνοντας τα θύματα να αισθάνονται ταπεινωμένα, απελπισμένα και φοβισμένα ότι οι εικόνες θα τα στοιχειώνουν για πάντα.
Η κρίση των deepfakes που πλήττει τα σχολεία ξεκίνησε αργά μερικά χρόνια πριν, αλλά έκτοτε έχει κλιμακωθεί σημαντικά καθώς η τεχνολογία που χρησιμοποιείται για τη δημιουργία υλικού έχει γίνει πιο προσβάσιμη. Περιστατικά σεξουαλικής κακοποίησης μέσω deepfake έχουν πλήξει περίπου 90 σχολεία παγκοσμίως και έχουν επηρεάσει περισσότερους από 600 μαθητές, σύμφωνα με αξιολόγηση περιστατικών από το WIRED και το Indicator.
Σε όλες σχεδόν τις περιπτώσεις, έφηβα αγόρια φέρονται να είναι υπεύθυνοι για τη δημιουργία των εικόνων ή των βίντεο. Συχνά μοιράζονται μέσω εφαρμογών κοινωνικής δικτύωσης ή μέσω μηνυμάτων άμεσης επικοινωνίας με συμμαθητές τους.
Τα ευρήματα δείχνουν ότι, από το 2023, μαθητές — ως επί το πλείστον αγόρια σε λύκεια — σε τουλάχιστον 28 χώρες έχουν κατηγορηθεί για χρήση τεχνητής νοημοσύνης για να στοχεύσουν συμμαθητές τους με σεξουαλικά deepfakes. Το υλικό αυτό, που απεικονίζει ανηλίκους, θεωρείται υλικό σεξουαλικής κακοποίησης παιδιών (CSAM). Αυτή η έρευνα θεωρείται η πρώτη που εξετάζει πραγματικά περιστατικά κατάχρησης deepfake με τεχνητή νοημοσύνη σε σχολεία παγκοσμίως.
Συνολικά, η ανάλυση αναδεικνύει την παγκόσμια εμβέλεια της επιβλαβούς τεχνολογίας απογύμνωσης μέσω τεχνητής νοημοσύνης, η οποία μπορεί να αποφέρει στους δημιουργούς της εκατομμύρια δολάρια ετησίως, και δείχνει ότι, σε πολλά περιστατικά, σχολεία και αρχές επιβολής του νόμου συχνά δεν είναι προετοιμασμένα να ανταποκριθούν σε σοβαρά περιστατικά σεξουαλικής κακοποίησης.
Στη Βόρεια Αμερική έχουν αναφερθεί σχεδόν 30 περιπτώσεις σεξουαλικής κακοποίησης μέσω deepfake από το 2023 — συμπεριλαμβανομένης μιας με περισσότερα από 60 φερόμενα θύματα, μιας όπου το θύμα αποβλήθηκε προσωρινά από το σχολείο, και άλλων όπου μαθητές σε πολλά σχολεία φέρεται να στοχοποιήθηκαν ταυτόχρονα. Περισσότερες από 10 περιπτώσεις έχουν αναφερθεί δημόσια στη Νότια Αμερική, περισσότερες από 20 σε όλη την Ευρώπη, και από 12 σε Αυστραλία και Ανατολική Ασία συνολικά.
Η πραγματική έκταση της σεξουαλικής κακοποίησης μέσω deepfake που συμβαίνει στα σχολεία είναι πιθανώς πολύ μεγαλύτερη. Μια έρευνα της UNICEF εκτιμά ότι 1,2 εκατομμύρια παιδιά είχαν πέσει θύματα σεξουαλικών deepfakes πέρυσι. Ένα στα πέντε νέα άτομα στην Ισπανία είπε σε ερευνητές της Save the Children ότι είχαν δημιουργηθεί γυμνά deepfakes τους. Η ομάδα προστασίας παιδιών Thorn διαπίστωσε ότι ένας στους οκτώ έφηβους γνωρίζει κάποιον που στοχοποιήθηκε, και το 2024 το 15% των μαθητών που συμμετείχαν σε έρευνα του Center for Democracy and Technology δήλωσαν ότι γνώριζαν για deepfakes παραγόμενα από τεχνητή νοημοσύνη που συνδέονταν με το σχολείο τους.
«Νομίζω ότι θα ήταν δύσκολο να βρεθεί σχολείο που δεν έχει επηρεαστεί από αυτό», λέει ο Lloyd Richardson, διευθυντής τεχνολογίας στο Canadian Centre for Child Protection. «Το πιο σημαντικό είναι πώς μπορούμε να βοηθήσουμε τα θύματα όταν συμβεί αυτό, γιατί οι συνέπειες μπορεί να είναι τεράστιες.»
Το WIRED και το Indicator εξέτασαν περιστατικά που έχουν αναφερθεί δημόσια με συγκεκριμένες λεπτομέρειες, όπως τοποθεσίες σχολείων και εκτιμώμενος αριθμός θυμάτων. Κυρίως πρόκειται για αναφορές στην αγγλική γλώσσα, ενώ δεν υπάρχουν διαθέσιμα δεδομένα για πολλές χώρες. Πολλά περιστατικά δεν αναφέρονται ποτέ στον Τύπο, μπορεί να μην περιλαμβάνουν συγκεκριμένες λεπτομέρειες αν αναφερθούν, και διαχειρίζονται ιδιωτικά από σχολεία και την αστυνομία.
Ωστόσο, διαφαίνονται σαφή μοτίβα. Σε όλες σχεδόν τις περιπτώσεις, έφηβα αγόρια φέρονται να είναι υπεύθυνοι για τη δημιουργία των εικόνων ή των βίντεο. Συχνά μοιράζονται μέσω εφαρμογών κοινωνικής δικτύωσης ή μέσω μηνυμάτων άμεσης επικοινωνίας με συμμαθητές τους. Και είναι εξαιρετικά επιβλαβή για τα θύματα. «Ανησυχώ ότι, κάθε φορά που με κοιτούν, βλέπουν αυτές τις φωτογραφίες», είπε ένα θύμα στην Αϊόβα νωρίτερα φέτος. «Κλαίει. Δεν τρώει», είπε η οικογένεια ενός άλλου θύματος.
Σε πολλές περιπτώσεις, τα θύματα δεν θέλουν να πάνε σχολείο ή να αντιμετωπίσουν εκείνους που δημιούργησαν τις εικόνες ή τα βίντεο. «Νιώθει απελπισμένη γιατί ξέρει ότι αυτές οι εικόνες πιθανότατα θα βρεθούν στο διαδίκτυο και θα φτάσουν σε παιδόφιλους», λέει ο δικηγόρος Shane Vogt, μαζί με τρεις φοιτητές της Νομικής Σχολής Yale, που εκπροσωπούν μια ανώνυμη έφηβη από το Νιου Τζέρσεϊ σε νομική δράση κατά μιας υπηρεσίας απογύμνωσης. «Την ταράζει βαθιά η σκέψη ότι αυτές οι εικόνες κυκλοφορούν, και θα πρέπει να παρακολουθεί το διαδίκτυο για το υπόλοιπο της ζωής της, για να αποτρέψει τη διάδοσή τους».
Στη Νότια Κορέα και την Αυστραλία, σχολεία έδωσαν στους μαθητές την επιλογή να μην εμφανίζονται στα επετειακά λευκώματα ή σταμάτησαν να δημοσιεύουν εικόνες μαθητών στους επίσημους λογαριασμούς τους στα μέσα κοινωνικής δικτύωσης, επικαλούμενα τη χρήση τους για πιθανή κατάχρηση deepfake. «Σε όλο τον κόσμο, υπήρξαν περιπτώσεις όπου εικόνες σχολείων λήφθηκαν από δημόσιες σελίδες κοινωνικής δικτύωσης, τροποποιήθηκαν με τεχνητή νοημοσύνη και μετατράπηκαν σε επιβλαβή deepfakes», ανέφερε ένα σχολείο στην Αυστραλία.
Σε πολλές περιπτώσεις, έφηβες και οι οικογένειές τους είναι αυτές που κατέληξαν να αντιδρούν ενεργά ενάντια στη δημιουργία deepfake σεξουαλικής κακοποίησης, συχνά κινούμενες πιο γρήγορα από τους πολιτικούς, οι οποίοι γενικά έχουν αργήσει να αναλάβουν δράση.
Τα σεξουαλικά deepfakes που δημιουργούνται με τεχνητή νοημοσύνη υπάρχουν από τα τέλη του 2017 περίπου· ωστόσο, καθώς τα συστήματα τεχνητής νοημοσύνης έχουν εξελιχθεί και έχουν γίνει πιο ισχυρά, έχουν οδηγήσει σε ένα σκιώδες οικοσύστημα τεχνολογιών «γδυσίματος». Δεκάδες εφαρμογές, bots και ιστότοποι επιτρέπουν σε οποιονδήποτε να δημιουργεί σεξουαλικοποιημένες εικόνες και βίντεο άλλων με μερικά μόνο κλικ, συχνά χωρίς τεχνικές γνώσεις.
«Αυτό που αλλάζει η τεχνητή νοημοσύνη είναι η κλίμακα, η ταχύτητα και η προσβασιμότητα», λέει ο Siddharth Pillai, συνιδρυτής και διευθυντής του RATI Foundation, μιας οργάνωσης με έδρα τη Μουμπάι που εργάζεται για την πρόληψη της βίας κατά γυναικών και παιδιών. «Το τεχνικό εμπόδιο έχει μειωθεί σημαντικά, που σημαίνει ότι περισσότεροι άνθρωποι, συμπεριλαμβανομένων εφήβων, μπορούν να παράγουν πιο πειστικά αποτελέσματα με ελάχιστη προσπάθεια».
Η Amanda Goharian, διευθύντρια έρευνας στην ομάδα ασφάλειας παιδιών Thorn, λέει ότι η έρευνά τους δείχνει ότι υπάρχουν διαφορετικά κίνητρα για έφηβους που δημιουργούν deepfake, από σεξουαλικά κίνητρα, περιέργεια, εκδίκηση, ή ακόμα και εφήβους που αλληλοπροκαλούνται να δημιουργήσουν τέτοιο υλικό. «Ο στόχος δεν είναι πάντα η σεξουαλική ικανοποίηση», λέει ο Pillai. «Όλο και περισσότερο, η πρόθεση είναι η ταπείνωση, η υποτίμηση και ο κοινωνικός έλεγχος».
«Δεν πρόκειται μόνο για την τεχνολογία», λέει η Tanya Horeck, καθηγήτρια σπουδών φεμινιστικών μέσων και ερευνήτρια που εστιάζει στη βία με βάση το φύλο. «Πρόκειται για τις μακροχρόνιες δυναμικές μεταξύ των φύλων που ευνοούν αυτά τα εγκλήματα».
Καθώς ο αριθμός των περιστατικών deepfake στα σχολεία έχει αυξηθεί τα τελευταία χρόνια, οι τρόποι αντιμετώπισής τους από σχολεία και αρχές επιβολής του νόμου μπορεί να ποικίλλουν πολύ. Γονείς έχουν παραπονεθεί ότι δεν λαμβάνονται αρκετά μέτρα από τις αρχές. Σε μια περίπτωση, φέρεται να χρειάστηκαν τρεις ημέρες για να αναφέρει ένα σχολείο ένα περιστατικό στην αστυνομία· σε άλλη, ένα θύμα ισχυρίστηκε ότι δεν υπήρξαν άμεσες συνέπειες για τους εικαζόμενους δράστες. Μερικές φορές οι μαθητές αντιμετωπίζουν κατηγορίες για δημιουργία και κατοχή CSAM, ενώ άλλοι αντιμετωπίζουν διαφορετικές ποινικές κατηγορίες ή αποβολές από το σχολείο. Τον Μάρτιο, δύο μαθητές στην Πενσυλβάνια ομολόγησαν ενοχή σε δικαστήριο ανηλίκων και αργότερα καταδικάστηκαν σε 60 ώρες κοινωφελούς εργασίας για κακουργηματικές κατηγορίες που σχετίζονται με CSAM για τη δημιουργία εικόνων και βίντεο 60 κοριτσιών.
Σε πολλές περιπτώσεις, έφηβες και οι οικογένειές τους είναι αυτές που κατέληξαν να αντιδρούν ενεργά ενάντια στη δημιουργία deepfake σεξουαλικής κακοποίησης, συχνά κινούμενες πιο γρήγορα από τους πολιτικούς, οι οποίοι γενικά έχουν αργήσει να αναλάβουν δράση. Έφηβοι έχουν αποχωρήσει από την τάξη για να εκφράσουν αλληλεγγύη στα θύματα, έχουν διαμαρτυρηθεί εναντίον των φερόμενων δραστών, έχουν συμμετάσχει στη δημιουργία διαδικτυακών εκπαιδευτικών προγραμμάτων και έχουν αλλάξει νόμους, συμβάλλοντας μεταξύ άλλων στη θέσπιση του νόμου Take It Down Act, ο οποίος απαιτεί από τις τεχνολογικές πλατφόρμες να αφαιρούν εικόνες με σεξουαλικό περιεχόμενο χωρίς τη συγκατάθεση των ατόμων εντός 48 ωρών. (Το Ηνωμένο Βασίλειο και η ΕΕ βρίσκονται στη διαδικασία απαγόρευσης των εφαρμογών που δημιουργούν γυμνές εικόνες, ενώ η ρυθμιστική αρχή eSafety της Αυστραλίας έχει λάβει μέτρα εναντίον ορισμένων υπηρεσιών).
«Συχνά, όταν τα παιδιά μιλούν για πράγματα που συμβαίνουν, η ανταπόκριση είναι εντελώς ανεπαρκής», λέει η Afrooz Kaviani Johnson, ειδικός προστασίας παιδιών στη UNICEF. «Ο τρόπος με τον οποίο οι ενήλικες ανταποκρίνονται σε μια αποκάλυψη μπορεί να επηρεάσει σημαντικά τόσο την ανάρρωσή τους όσο και την πιθανότητα να μιλήσουν ξανά αν συμβεί κάτι άλλο».
«Υπάρχει τόσο πολλή δουλειά να γίνει για να καταφέρουμε τα σχολεία να ενημερωθούν σχετικά με το φάσμα των απειλών, των δικαιωμάτων τους, της αποτροπής, της πολιτικής, της ετοιμότητας για κρίσεις», λέει ο Evan Harris, πρώην εκπαιδευτικός και ιδρυτής της Pathos Consulting Group, που διοργανώνει εκπαιδευτικά προγράμματα για σχολεία σε όλες τις ΗΠΑ. «Είναι απαραίτητο να δώσουμε στους μαθητές τα εργαλεία, τη γλώσσα και την υποστήριξη σε περίπτωση που αντιμετωπίσουν deepfakes ή ενημερωθούν γι’ αυτά», λέει η Robyn Little, ανώτερη διευθύντρια ψηφιακής εκπαιδευτικής στρατηγικής στο McDonogh School στο Μέριλαντ.
Τα προβλήματα των σχολείων με τα deepfakes δεν περιορίζονται στη δημιουργία επικίνδυνου σεξουαλικού υλικού μεταξύ μαθητών. Έχουν σημειωθεί περιπτώσεις όπου παιδιά έχουν δημιουργήσει σεξουαλικά deepfakes των δασκάλων τους, τοποθετώντας τους σε ταπεινωτικές καταστάσεις ή κάνοντάς τους να λένε πράγματα που δεν έχουν πει ποτέ. Ένα σχολείο στο Όρεγκον αναγκάστηκε να προσλάβει αναπληρωτές δασκάλους αφού οι τακτικοί δάσκαλοί του απουσίαζαν, διαμαρτυρόμενοι κατά ενός λογαριασμού κοινωνικής δικτύωσης που μοιραζόταν παραποιημένες εικόνες του προσωπικού.
«Ενώ αυτό [η σεξουαλική κακοποίηση μέσω deepfake] είναι ίσως ο πιο επείγων, σοβαρός και καταστροφικός από τους κινδύνους deepfake», λέει ο Harris, «είναι ένας από πολλούς που αναδύονται ταυτόχρονα και στους οποίους τα σχολεία είναι ιδιαίτερα ευάλωτα και πραγματικά απροετοίμαστα λόγω πόρων και επειδή έχουν τόσα πολλά να διαχειριστούν.»
Το άρθρο δημοσιεύθηκε πρώτη φορά στο WIRED US και μεταφράστηκε από την αγγλική γλώσσα.