Ενόψει των επικείμενων γενικών εκλογών της Ολλανδίας, οι εθνικές αρχές προστασίας δεδομένων εξέδωσαν επείγουσα προειδοποίηση προς τους πολίτες, καλώντας τους να αποφύγουν τη χρήση εργαλείων τεχνητής νοημοσύνης (AI) για τη λήψη αποφάσεων σχετικά με την ψήφο τους.
Μία πρόσφατη μελέτη αποκάλυψε ότι τα chatbots όχι μόνο παρέχουν εξαιρετικά στρεβλωμένη και πολωμένη εικόνα του πολιτικού τοπίου της χώρας, αλλά και παραβλέπουν συστηματικά κεντρώα κόμματα, κατευθύνοντας τους χρήστες προς τις ακραίες πλευρές του πολιτικού φάσματος.
Η εξέλιξη αυτή εγείρει σοβαρά ερωτήματα σχετικά με την ακεραιότητα των δημοκρατικών διαδικασιών στην εποχή της ψηφιακής διακυβέρνησης και της ραγδαίας ανάπτυξης της τεχνητής νοημοσύνης. Καθώς όλο και περισσότεροι πολίτες στρέφονται σε ψηφιακές πλατφόρμες για ενημέρωση, η διαφάνεια και η αμεροληψία των αλγορίθμων καθίστανται κρίσιμης σημασίας για την ορθή πληροφόρηση των ψηφοφόρων.
Κίνδυνος πόλωσης από την τεχνητή νοημοσύνη στις εκλογές
Η ολλανδική εποπτική αρχή για την προστασία των δεδομένων δημοσίευσε μια μελέτη την Τρίτη, υπογραμμίζοντας τις ανησυχίες της. Σύμφωνα με τα ευρήματα, τα συστήματα τεχνητής νοημοσύνης προσφέρουν μια εντελώς παραμορφωμένη και άκρως πολωμένη αντίληψη της ολλανδικής πολιτικής σκηνής.
Η Monique Verdier, αντιπρόεδρος της αρχής, τόνισε σε δήλωσή της: «Προειδοποιούμε να μη χρησιμοποιείτε chatbots τεχνητής νοημοσύνης για συμβουλές ψήφου, καθώς οι λειτουργίες τους δεν είναι διαφανείς και επαληθεύσιμες».
Η ίδια απεύθυνε έκκληση στους προγραμματιστές των chatbots να «αποτρέψουν τη χρήση των συστημάτων τους για παροχή εκλογικών συμβουλών», υπογραμμίζοντας την σημασία της αντικειμενικότητας σε θέματα που αφορούν την πολιτική επιλογή των πολιτών. Η προειδοποίηση αυτή έρχεται λίγο πριν την εκλογική αναμέτρηση της επόμενης Τετάρτης, όπου οι Ολλανδοί ψηφοφόροι θα εκλέξουν το νέο τους κοινοβούλιο.
Αποκλίσεις και μεροληψία: Τα ευρήματα της μελέτης
Για την πραγματοποίηση της έρευνας, η ολλανδική αρχή προστασίας δεδομένων διεξήγαγε ένα πείραμα, εξετάζοντας τον τρόπο με τον οποίο διάφορα πολιτικά κόμματα παρουσιάζονταν σε συμβουλές ψήφου από τέσσερα διαφορετικά chatbots. Μεταξύ αυτών ήταν τα ChatGPT της OpenAI, Gemini της Google, Grok του Elon Musk και Le Chat της γαλλικής Mistral AI.
Η μεθοδολογία περιελάμβανε τη δημιουργία προφίλ ψηφοφόρων που αντιστοιχούσαν σε διάφορα πολιτικά κόμματα, βασισμένα σε αξιόπιστα ολλανδικά εργαλεία βοήθειας ψήφου.
Τα αποτελέσματα ήταν αποκαλυπτικά: Τα προφίλ ψηφοφόρων που τοποθετούνταν στην αριστερή και προοδευτική πλευρά του πολιτικού φάσματος, κατευθύνονταν συντριπτικά προς το κόμμα GreenLeft-Labor, με επικεφαλής τον πρώην αντιπρόεδρο της Ευρωπαϊκής Επιτροπής, Frans Timmermans.
Αντίστοιχα, οι ψηφοφόροι με δεξιές και συντηρητικές απόψεις οδηγούνταν κυρίως στο PVV, το ακροδεξιό κόμμα του Geert Wilders, το οποίο αυτή τη στιγμή προηγείται στις δημοσκοπήσεις. Το πλέον ανησυχητικό στοιχείο ήταν η σχεδόν παντελής απουσία των κεντρώων κομμάτων από τις προτεινόμενες συμβουλές, παρόλο που αντιπροσωπεύονταν ισομερώς στα αρχικά προφίλ ψηφοφόρων που δόθηκαν στα chatbots.
Η Ευρωπαϊκή νομοθεσία και η ευθύνη των τεχνολογικών κολοσσών
Οι εταιρείες πίσω από τα chatbots, OpenAI, Google και Mistral, έχουν υπογράψει τον κώδικα πρακτικής της Ευρωπαϊκής Ένωσης για τα πιο πολύπλοκα και προηγμένα μοντέλα AI. Η xAI, μητρική εταιρεία του Grok, έχει επίσης συμφωνήσει σε μέρη αυτού του κώδικα.
Στο πλαίσιο αυτού του πλαισίου, οι εταιρείες δεσμεύονται να αντιμετωπίσουν τους κινδύνους που προκύπτουν από τα μοντέλα τους, συμπεριλαμβανομένων αυτών που αφορούν τα θεμελιώδη δικαιώματα και την κοινωνία.
Η ολλανδική αρχή υποστήριξε ότι τα chatbots που παρέχουν συμβουλές ψήφου θα μπορούσαν να ταξινομηθούν ως συστήματα υψηλού κινδύνου βάσει του Νόμου της ΕΕ για την Τεχνητή Νοημοσύνη, ο οποίος προβλέπει ένα ξεχωριστό σύνολο κανόνων που θα αρχίσουν να εφαρμόζονται από τα μέσα του επόμενου έτους.
Η προειδοποίηση αυτή λειτουργεί ως μια σημαντική υπενθύμιση για την ανάγκη συνεχούς ρύθμισης και εποπτείας των αναδυόμενων τεχνολογιών, ειδικά όταν αυτές επηρεάζουν ζωτικής σημασίας διαδικασίες όπως οι εκλογές.
Η εμπιστοσύνη στις πληροφορίες που λαμβάνουν οι πολίτες είναι θεμελιώδης για τη λειτουργία μιας υγιούς δημοκρατίας. Οι εξελίξεις στην τεχνητή νοημοσύνη, αν και προσφέρουν πολλές δυνατότητες, απαιτούν ταυτόχρονα αυξημένη προσοχή και διαρκή προσπάθεια για τη διασφάλιση της αντικειμενικότητας και της διαφάνειας, ώστε να αποφευχθούν αθέμιτες παρεμβάσεις στην ελεύθερη βούληση των ψηφοφόρων.