- Η UNICEF ζητά την άμεση ποινικοποίηση της δημιουργίας AI υλικού παιδικής κακοποίησης.
- Πάνω από 1,2 εκατομμύρια παιδιά έχουν πληγεί από σεξουαλικά deepfakes παγκοσμίως.
- Η Μεγάλη Βρετανία γίνεται η πρώτη χώρα που απαγορεύει νομοθετικά αυτά τα εργαλεία.
- Καλλούνται οι εταιρείες τεχνολογίας να εφαρμόσουν δικλείδες ασφαλείας 'safety-by-design'.
Σε μια επείγουσα έκκληση για την προστασία των ανηλίκων στον ψηφιακό κόσμο, η UNICEF ζήτησε την Τετάρτη από τη διεθνή κοινότητα την ποινικοποίηση της δημιουργίας περιεχομένου σεξουαλικής κακοποίησης παιδιών μέσω τεχνητής νοημοσύνης. Σύμφωνα με τα στοιχεία που σοκάρουν, τουλάχιστον 1,2 εκατομμύρια παιδιά σε 11 χώρες ανέφεραν ότι οι εικόνες τους παραποιήθηκαν σε σεξουαλικά deepfakes κατά το τελευταίο έτος.
| Κατηγορία | Στοιχεία / Δεδομένα |
|---|---|
| Αριθμός Θυμάτων | 1,2 εκατομμύρια παιδιά |
| Χώρες Αναφοράς | 11 κράτη παγκοσμίως |
| Πρώτη Χώρα Νομοθεσίας | Μεγάλη Βρετανία |
| Κύρια Απειλή | Nudification (Ψηφιακή απογύμνωση) |
| Πλατφόρμα υπό έλεγχο | Grok (xAI / Elon Musk) |
Η ραγδαία εξέλιξη της παραγωγικής τεχνητής νοημοσύνης έχει δημιουργήσει ένα επικίνδυνο νομοθετικό κενό, το οποίο εκμεταλλεύονται επιτήδειοι για την παραγωγή παράνομου υλικού. Η UNICEF επισημαίνει ότι η τεχνολογία εξελίσσεται με ταχύτητα που οι ρυθμιστικοί μηχανισμοί αδυνατούν να ακολουθήσουν, αφήνοντας τα παιδιά εκτεθειμένα σε ψηφιακή κακοποίηση.
Τα παιδιά δεν μπορούν να περιμένουν τη νομοθεσία να τα προλάβει. Η βλάβη από τα deepfakes είναι πραγματική και επείγουσα.
UNICEF, Ανακοίνωση για την AI κακοποίηση
Η απειλή του nudification και η έκκληση της UNICEF
Η υπηρεσία του Οργανισμού Ηνωμένων Εθνών για τα παιδιά εξέφρασε την έντονη ανησυχία της για το φαινόμενο του «nudification». Πρόκειται για τη χρήση εργαλείων AI που αφαιρούν ή παραποιούν τον ρουχισμό σε φωτογραφίες ανηλίκων, δημιουργώντας κατασκευασμένες γυμνές εικόνες χωρίς τη συναίνεσή τους.
Όπως μεταδίδει το ρεπορτάζ του Reuters, η βλάβη από την κατάχρηση των deepfakes είναι άμεση και επείγουσα. Η UNICEF υπογραμμίζει στην ανακοίνωσή της ότι «τα παιδιά δεν μπορούν να περιμένουν» μέχρι η νομοθεσία να εναρμονιστεί με την τεχνολογική πραγματικότητα.
Παράλληλα, η οργάνωση προτρέπει τους προγραμματιστές λογισμικού να υιοθετήσουν προσεγγίσεις «ασφάλειας εκ σχεδιασμού» (safety-by-design). Είναι απαραίτητο να ενσωματωθούν ισχυρές δικλείδες ασφαλείας που θα εμποδίζουν την κακόβουλη χρήση των μοντέλων τεχνητής νοημοσύνης πριν αυτά διατεθούν στο κοινό.
Οι ευθύνες των τεχνολογικών κολοσσών και το Grok
Στο επίκεντρο της κριτικής βρίσκονται οι ψηφιακές εταιρείες, οι οποίες καλούνται να επενδύσουν σε τεχνολογίες ανίχνευσης. Η ενίσχυση του content moderation κρίνεται επιβεβλημένη για να σταματήσει η κυκλοφορία αυτών των εικόνων στα κοινωνικά δίκτυα και τις πλατφόρμες επικοινωνίας.
Ιδιαίτερη αναφορά γίνεται στο chatbot Grok, ιδιοκτησίας του Έλον Μασκ, το οποίο βρέθηκε υπό αυστηρό έλεγχο για την παραγωγή σεξουαλικοποιημένων εικόνων. Παρά τους πρόσφατους περιορισμούς στη χρήση του Grok, έρευνες έδειξαν ότι το σύστημα συνέχιζε να παράγει ακατάλληλο περιεχόμενο παρά τις προειδοποιήσεις των χρηστών.
Η xAI ανακοίνωσε πρόσφατα ότι έχει περιορίσει τη δυνατότητα επεξεργασίας εικόνων και έχει αποκλείσει χρήστες σε συγκεκριμένες δικαιοδοσίες. Ωστόσο, η διεθνής κοινότητα θεωρεί ότι αυτά τα μέτρα είναι συχνά ανεπαρκή ή καθυστερημένα απέναντι στην έκταση του προβλήματος.
Η διεθνής αντίδραση και το παράδειγμα της Βρετανίας
Σύμφωνα με τις εκτιμήσεις νομικών κύκλων που παρακολουθούν την υπόθεση, η Μεγάλη Βρετανία πρωτοπορεί στον τομέα αυτό. Η χώρα ανακοίνωσε το περασμένο Σάββατο την πρόθεσή της να καταστήσει παράνομη τη χρήση εργαλείων AI για τη δημιουργία εικόνων παιδικής κακοποίησης, αποτελώντας το πρώτο κράτος που προχωρά σε τέτοια κίνηση.
Η εξέλιξη αυτή έρχεται σε μια στιγμή που οι ευρωπαϊκές πρωτοβουλίες κατά της κακοποίησης προσπαθούν να βρουν τη χρυσή τομή μεταξύ ασφάλειας και ιδιωτικότητας. Η ανάγκη για διεθνή συνεργασία είναι επιτακτική, καθώς το ψηφιακό έγκλημα δεν γνωρίζει σύνορα.
Επιπλέον, η χρήση προηγμένων συστημάτων, όπως οι τεχνολογίες ανίχνευσης ψηφιακού υλικού της Google, μπορεί να αποτελέσει κρίσιμο εργαλείο στα χέρια των αρχών. Η UNICEF επιμένει ότι μόνο μέσω του συνδυασμού αυστηρής νομοθεσίας και τεχνολογικής θωράκισης μπορεί να διασφαλιστεί η προστασία των παιδιών.
Η επόμενη μέρα για την ψηφιακή ασφάλεια
Η ποινικοποίηση της παραγωγής αυτού του υλικού αποτελεί το πρώτο βήμα για την αποτροπή των δραστών. Ωστόσο, οι κοινωνικοί ερευνητές τονίζουν ότι απαιτείται και ψηφιακή παιδεία για τους γονείς και τους εκπαιδευτικούς, ώστε να αναγνωρίζουν τους κινδύνους του διαδικτύου.
Η διεθνής πίεση προς τις εταιρείες τεχνολογίας αναμένεται να ενταθεί το επόμενο διάστημα. Η προστασία της αξιοπρέπειας των ανηλίκων στην εποχή της τεχνητής νοημοσύνης δεν είναι πλέον μια θεωρητική συζήτηση, αλλά μια επιτακτική ανάγκη επιβίωσης των κοινωνικών αξιών.
Πώς να προστατεύσετε τις φωτογραφίες των παιδιών σας
- Αποφύγετε τη δημοσίευση φωτογραφιών των παιδιών σας σε δημόσια προφίλ στα social media.
- Χρησιμοποιήστε ρυθμίσεις ιδιωτικότητας που επιτρέπουν την προβολή μόνο σε στενούς φίλους και συγγενείς.
- Ενημερώστε τα παιδιά για τους κινδύνους της αποστολής προσωπικών φωτογραφιών σε αγνώστους.
- Χρησιμοποιήστε εργαλεία υδατογραφήματος (watermarking) αν πρέπει να ανεβάσετε φωτογραφίες σε δημόσιες πλατφόρμες.