Παιδόφιλοι χρησιμοποιούν ΑΙ για να μετατρέψουν διασημότητες σε παιδιά
Παιδόφιλοι χρησιμοποιούν ΑΙ για να μετατρέψουν διασημότητες σε παιδιά
Μόνο σε έναν δικτυακό τόπο παιδοφιλίας εντοπίστηκαν σχεδόν 3.000 deepfake εικόνες που θα ήταν παράνομες σύμφωνα με τη βρετανική νομοθεσία για τη σεξουαλική κακοποίηση παιδιών.
O Σκοτεινός Ιστός του Διαδικτύου έχει αρχίσει να γεμίζει με εικόνες που δημιουργήθηκαν με εργαλεία τεχνητής νοημοσύνης ώστε να εμφανίζουν διάσημους ηθοποιούς και τραγουδιστές ως παιδιά που πέφτουν θύματα βιασμού, προειδοποιεί βρετανική οργάνωση.
Μόνο σε έναν δικτυακό τόπο παιδοφιλίας, το Internet Watch Foundation εντόπισε σχεδόν 3.000 deepfake εικόνες που θα ήταν παράνομες σύμφωνα με τη βρετανική νομοθεσία. Περισσότερες από τις μισές εικονίζουν παιδιά 7-10 ετών.
Εκτός από εικόνες διασημοτήτων που εμφανίζονται ως παιδιά, οι παιδόφιλοι χρησιμοποιούν επίσης φωτογραφίες υπαρκτών θυμάτων παιδικής σεξουαλικής κακοποίησης για να παραγάγουν αναρίθμητες νέες παραλλαγές και σκηνές βιασμών, διαπιστώνει η έκθεση της οργάνωσης.
«Οι χειρότεροι εφιάλτες μας έγιναν πραγματικότητα» δήλωσε σύμφωνα με το BBC η Σούζι Χάργκριβς, διευθύνουσα σύμβουλος του IWF.
«Νωρίτερα φέτος προειδοποιήσαμε ότι σύντομα θα ήταν αδύνατο να ξεχωρίσει κανείς τις εικόνες ΑΙ από πραγματικές εικόνες παιδιών που πέφτουν θύματα κακοποίησης, και ότι θα αρχίζαμε να βλέπουμε αυτές τις εικόνες να πολλαπλασιάζονται σε πολύ μεγαλύτερους αριθμούς. Πλέον έχουμε ξεπεράσει αυτό το σημείο».
Αν και οι deepfake εικόνες παράγονται χωρίς να κακοποιηθούν παιδιά στην πραγματικότητα, το υλικό αυτό κανονικοποιεί την παιδοφιλία και δημιουργούν προβλήματα για τις διωκτικές αρχές, οι οποίες αναγκάζονται να ερευνούν μεγάλο αριθμό υποθέσεις για ανύπαρκτα παιδιά.
Το IWF δεν προτείνει λύσεις, ζητά όμως από τις κυβερνήσεις να ενισχύσουν τη νομοθεσία. Η έκθεση κάνει ειδική αναφορά στην Ευρωπαϊκή Ένωση, όπου διεξάγεται αυτό τον καιρό μια συζήτηση για εργαλεία παρακολούθησης που σαρώνουν τις εικόνες σε υπηρεσίες επικοινωνίας, με τους επικριτές του μέτρου να αντιδρούν λόγω του κινδύνου παραβίασης του απορρήτου των επικοινωνιών για εκατομμύρια αθώους χρήστες.
Οι παιδόφιλοι χρησιμοποιούν εργαλεία γενετικής τεχνητής νοημοσύνης που παράγουν εικόνες σύμφωνα με τις οδηγίες που δίνει ο χρήστης.
Τα περισσότερα τέτοια εργαλεία πλέον μπλοκάρουν την παραγωγή παράνομου περιεχομένου.
Όμως η δημιουργία πορνογραφικών εικόνων και εικόνων παιδοφιλίας είναι ακόμα δυνατή με παλαιότερες βερσιόν του Stability Diffusion, λογισμικού ανοιχτού κώδικα που πρωτοεμφανίστηκε το 2022.
Η εταιρεία που ανέπτυξε το μοντέλο, η λονδρέζικη Stability AI, έχει πλέον ενσωματώσει φίλτρα που μπλοκάρουν το ακατάλληλο περιεχόμενο και απαγορεύει τη χρήση των προϊόντων για παράνομες εικόνες.
Παρόλα αυτά, οι παλαιότερες βερσιόν του λογισμικού «είναι μακράν το προτιμώμενο λογισμικό […] για ανθρώπους που δημιουργούν ακατάλληλο υλικό με παιδιά», δήλωσε στο Associated Press ο Ντέιβιντ Θίελ της αμερικανικής οργάνωσης Stanford Internet Observatory.
Δεν υπάρχουν σχόλια