Skip to content
UNICEF: Ποινικοποίηση των AI εικόνων παιδικής κακοποίησης ζητά ο ΟΗΕ

UNICEF: Ποινικοποίηση των AI εικόνων παιδικής κακοποίησης ζητά ο ΟΗΕ


Σπύρος Καλογερόπουλος
Τι πρέπει να ξέρετε…
  • Η UNICEF ζητά την άμεση ποινικοποίηση της δημιουργίας AI υλικού παιδικής κακοποίησης.
  • Πάνω από 1,2 εκατομμύρια παιδιά έχουν πληγεί από σεξουαλικά deepfakes παγκοσμίως.
  • Η Μεγάλη Βρετανία γίνεται η πρώτη χώρα που απαγορεύει νομοθετικά αυτά τα εργαλεία.
  • Καλλούνται οι εταιρείες τεχνολογίας να εφαρμόσουν δικλείδες ασφαλείας 'safety-by-design'.

Σε μια επείγουσα έκκληση για την προστασία των ανηλίκων στον ψηφιακό κόσμο, η UNICEF ζήτησε την Τετάρτη από τη διεθνή κοινότητα την ποινικοποίηση της δημιουργίας περιεχομένου σεξουαλικής κακοποίησης παιδιών μέσω τεχνητής νοημοσύνης. Σύμφωνα με τα στοιχεία που σοκάρουν, τουλάχιστον 1,2 εκατομμύρια παιδιά σε 11 χώρες ανέφεραν ότι οι εικόνες τους παραποιήθηκαν σε σεξουαλικά deepfakes κατά το τελευταίο έτος.

Data snapshot
Στατιστικά στοιχεία AI κακοποίησης ανηλίκων
Πηγή: UNICEF & Reuters Investigation 2026
ΚατηγορίαΣτοιχεία / Δεδομένα
Αριθμός Θυμάτων1,2 εκατομμύρια παιδιά
Χώρες Αναφοράς11 κράτη παγκοσμίως
Πρώτη Χώρα ΝομοθεσίαςΜεγάλη Βρετανία
Κύρια ΑπειλήNudification (Ψηφιακή απογύμνωση)
Πλατφόρμα υπό έλεγχοGrok (xAI / Elon Musk)

Η ραγδαία εξέλιξη της παραγωγικής τεχνητής νοημοσύνης έχει δημιουργήσει ένα επικίνδυνο νομοθετικό κενό, το οποίο εκμεταλλεύονται επιτήδειοι για την παραγωγή παράνομου υλικού. Η UNICEF επισημαίνει ότι η τεχνολογία εξελίσσεται με ταχύτητα που οι ρυθμιστικοί μηχανισμοί αδυνατούν να ακολουθήσουν, αφήνοντας τα παιδιά εκτεθειμένα σε ψηφιακή κακοποίηση.

Τα παιδιά δεν μπορούν να περιμένουν τη νομοθεσία να τα προλάβει. Η βλάβη από τα deepfakes είναι πραγματική και επείγουσα.

UNICEF, Ανακοίνωση για την AI κακοποίηση

Η απειλή του nudification και η έκκληση της UNICEF

Η υπηρεσία του Οργανισμού Ηνωμένων Εθνών για τα παιδιά εξέφρασε την έντονη ανησυχία της για το φαινόμενο του «nudification». Πρόκειται για τη χρήση εργαλείων AI που αφαιρούν ή παραποιούν τον ρουχισμό σε φωτογραφίες ανηλίκων, δημιουργώντας κατασκευασμένες γυμνές εικόνες χωρίς τη συναίνεσή τους.

Όπως μεταδίδει το ρεπορτάζ του Reuters, η βλάβη από την κατάχρηση των deepfakes είναι άμεση και επείγουσα. Η UNICEF υπογραμμίζει στην ανακοίνωσή της ότι «τα παιδιά δεν μπορούν να περιμένουν» μέχρι η νομοθεσία να εναρμονιστεί με την τεχνολογική πραγματικότητα.

Παράλληλα, η οργάνωση προτρέπει τους προγραμματιστές λογισμικού να υιοθετήσουν προσεγγίσεις «ασφάλειας εκ σχεδιασμού» (safety-by-design). Είναι απαραίτητο να ενσωματωθούν ισχυρές δικλείδες ασφαλείας που θα εμποδίζουν την κακόβουλη χρήση των μοντέλων τεχνητής νοημοσύνης πριν αυτά διατεθούν στο κοινό.

Οι ευθύνες των τεχνολογικών κολοσσών και το Grok

Στο επίκεντρο της κριτικής βρίσκονται οι ψηφιακές εταιρείες, οι οποίες καλούνται να επενδύσουν σε τεχνολογίες ανίχνευσης. Η ενίσχυση του content moderation κρίνεται επιβεβλημένη για να σταματήσει η κυκλοφορία αυτών των εικόνων στα κοινωνικά δίκτυα και τις πλατφόρμες επικοινωνίας.

Προτεινόμενο Νορβηγία: Πράσινο φως στην ηλεκτροδότηση του εργοστασίου LNG της Equinor μετά την υπαναχώρηση των Σοσιαλιστών Νορβηγία: Πράσινο φως στην ηλεκτροδότηση του εργοστασίου LNG της Equinor μετά την υπαναχώρηση των Σοσιαλιστών

Ιδιαίτερη αναφορά γίνεται στο chatbot Grok, ιδιοκτησίας του Έλον Μασκ, το οποίο βρέθηκε υπό αυστηρό έλεγχο για την παραγωγή σεξουαλικοποιημένων εικόνων. Παρά τους πρόσφατους περιορισμούς στη χρήση του Grok, έρευνες έδειξαν ότι το σύστημα συνέχιζε να παράγει ακατάλληλο περιεχόμενο παρά τις προειδοποιήσεις των χρηστών.

Η xAI ανακοίνωσε πρόσφατα ότι έχει περιορίσει τη δυνατότητα επεξεργασίας εικόνων και έχει αποκλείσει χρήστες σε συγκεκριμένες δικαιοδοσίες. Ωστόσο, η διεθνής κοινότητα θεωρεί ότι αυτά τα μέτρα είναι συχνά ανεπαρκή ή καθυστερημένα απέναντι στην έκταση του προβλήματος.

Η διεθνής αντίδραση και το παράδειγμα της Βρετανίας

Σύμφωνα με τις εκτιμήσεις νομικών κύκλων που παρακολουθούν την υπόθεση, η Μεγάλη Βρετανία πρωτοπορεί στον τομέα αυτό. Η χώρα ανακοίνωσε το περασμένο Σάββατο την πρόθεσή της να καταστήσει παράνομη τη χρήση εργαλείων AI για τη δημιουργία εικόνων παιδικής κακοποίησης, αποτελώντας το πρώτο κράτος που προχωρά σε τέτοια κίνηση.

Η εξέλιξη αυτή έρχεται σε μια στιγμή που οι ευρωπαϊκές πρωτοβουλίες κατά της κακοποίησης προσπαθούν να βρουν τη χρυσή τομή μεταξύ ασφάλειας και ιδιωτικότητας. Η ανάγκη για διεθνή συνεργασία είναι επιτακτική, καθώς το ψηφιακό έγκλημα δεν γνωρίζει σύνορα.

Επιπλέον, η χρήση προηγμένων συστημάτων, όπως οι τεχνολογίες ανίχνευσης ψηφιακού υλικού της Google, μπορεί να αποτελέσει κρίσιμο εργαλείο στα χέρια των αρχών. Η UNICEF επιμένει ότι μόνο μέσω του συνδυασμού αυστηρής νομοθεσίας και τεχνολογικής θωράκισης μπορεί να διασφαλιστεί η προστασία των παιδιών.

Η επόμενη μέρα για την ψηφιακή ασφάλεια

Η ποινικοποίηση της παραγωγής αυτού του υλικού αποτελεί το πρώτο βήμα για την αποτροπή των δραστών. Ωστόσο, οι κοινωνικοί ερευνητές τονίζουν ότι απαιτείται και ψηφιακή παιδεία για τους γονείς και τους εκπαιδευτικούς, ώστε να αναγνωρίζουν τους κινδύνους του διαδικτύου.

Η διεθνής πίεση προς τις εταιρείες τεχνολογίας αναμένεται να ενταθεί το επόμενο διάστημα. Η προστασία της αξιοπρέπειας των ανηλίκων στην εποχή της τεχνητής νοημοσύνης δεν είναι πλέον μια θεωρητική συζήτηση, αλλά μια επιτακτική ανάγκη επιβίωσης των κοινωνικών αξιών.

💡

Πώς να προστατεύσετε τις φωτογραφίες των παιδιών σας

  • Αποφύγετε τη δημοσίευση φωτογραφιών των παιδιών σας σε δημόσια προφίλ στα social media.
  • Χρησιμοποιήστε ρυθμίσεις ιδιωτικότητας που επιτρέπουν την προβολή μόνο σε στενούς φίλους και συγγενείς.
  • Ενημερώστε τα παιδιά για τους κινδύνους της αποστολής προσωπικών φωτογραφιών σε αγνώστους.
  • Χρησιμοποιήστε εργαλεία υδατογραφήματος (watermarking) αν πρέπει να ανεβάσετε φωτογραφίες σε δημόσιες πλατφόρμες.
Συχνές Ερωτήσεις Όσα πρέπει να γνωρίζετε για την AI κακοποίηση ανηλίκων

Τι ορίζεται ως nudification μέσω τεχνητής νοημοσύνης;

Ως nudification ορίζεται η χρήση αλγορίθμων τεχνητής νοημοσύνης για την ψηφιακή αφαίρεση ή παραποίηση του ρουχισμού από φωτογραφίες πραγματικών προσώπων. Η διαδικασία αυτή δημιουργεί ρεαλιστικά αλλά κατασκευασμένα γυμνά είδωλα, αποτελώντας σοβαρή μορφή ψηφιακής κακοποίησης.

Ποια χώρα ποινικοποίησε πρώτη τη δημιουργία AI εικόνων κακοποίησης;

Η Μεγάλη Βρετανία ανακοίνωσε επίσημα ότι θα καταστήσει παράνομη τη χρήση εργαλείων τεχνητής νοημοσύνης για τη δημιουργία εικόνων σεξουαλικής κακοποίησης παιδιών. Είναι η πρώτη χώρα παγκοσμίως που προχωρά σε αυτή τη συγκεκριμένη νομοθετική ρύθμιση.

Πόσα παιδιά έχουν πέσει θύματα deepfakes παγκοσμίως;

Σύμφωνα με τα επίσημα στοιχεία της UNICEF, τουλάχιστον 1,2 εκατομμύρια παιδιά σε 11 διαφορετικές χώρες ανέφεραν ότι οι εικόνες τους χρησιμοποιήθηκαν για τη δημιουργία σεξουαλικά ρητών deepfakes κατά το τελευταίο έτος.
Η αναδημοσίευση ή αναπαραγωγή του παρόντος άρθρου επιτρέπεται αποκλειστικά με την τοποθέτηση ενεργού συνδέσμου (link) προς την πηγή.

Προτεινόμενα

  1. 1
    Νότιο Σουδάν: Αεροπορική επιδρομή έπληξε νοσοκομείο των Γιατρών Χωρίς Σύνορα στο Τζόνγκλεϊ
  2. 2
    ΟΗΕ: Γιατί ο Αντόνιο Γκουτέρες προειδοποιεί για «άμεση οικονομική κατάρρευση» του οργανισμού
  3. 3
    Γερμανία: Διεύρυνση εξουσιών της BND έναντι υβριδικών απειλών

Προτεινόμενα

Ροή Ειδήσεων