
«Διψώντας» για δεδομένα: Το κρυφό πρόγραμμα AI της Europol
Η ολοένα και μεγαλύτερη «δίψα» της Europol για δεδομένα και τεχνητή νοημοσύνη μετασχηματίζει την αστυνόμευση στην Ευρώπη, πίσω από κλειστές πόρτες και χωρίς ειδική εποπτεία.
Έρευνα:
Εικονογράφηση:
Επιμέλεια:
Στη Χάγη, η ευρωπαϊκή αστυνομική υπηρεσία, η Europol, προσπαθεί να πετύχει έναν φιλόδοξο στόχο: να συγκεντρώσει τεράστιες ποσότητες δεδομένων και να εκπαιδεύσει αλγόριθμους, που θα μπορούσαν να αλλάξουν τον τρόπο που γίνεται η αστυνόμευση στην Ευρωπαϊκή Ένωση.
Εντός της Europol, αξιωματούχοι περιγράφουν το σχέδιο ως «Στρατηγικό Στόχο Νο. 1», δηλαδή το πως θα μετατρέψουν την υπηρεσία σε «κέντρο πληροφοριών για την εγκληματικότητα» στην Ευρωπαϊκή Ένωση. Ένα τεράστιο κέντρο ανταλλαγής προσωπικών δεδομένων που προέρχονται από ολόκληρη την ΕΕ, καθώς και από τρίτες χώρες και ιδιωτικούς εταίρους με τους οποίους έχει συνάψει συμφωνίες. Για τους επικριτές, αυτό μοιάζει λιγότερο με συντονισμό και περισσότερο με ένα σιωπηλό πείραμα μαζικής συλλογής δεδομένων και επιτήρησης.
Εσωτερικά έγγραφα της Europol, που αποκτήθηκαν στο πλαίσιο αυτής της έρευνας, και εξετάστηκαν από εμπειρογνώμονες στον τομέα της προστασίας δεδομένων και της τεχνητής νοημοσύνης, αποκαλύπτουν τον τρόπο με τον οποίο η Europol επιδιώκει την επίτευξη του στόχου: στο επίκεντρο της προσπάθειας βρίσκεται η τεχνητή νοημοσύνη. Οι επικεφαλής της Europol θεωρούν την τεχνητή νοημοσύνη ως το κλειδί για την κατανόηση του τεράστιου όγκου πληροφοριών που συσσωρεύει η υπηρεσία: από εφαρμογές συνομιλίας έως τις βιομετρικές βάσεις δεδομένων.
Η έρευνα που δημοσιεύεται σε Solomon, Computer Weekly (Ηνωμένο Βασίλειο) και Netzpolitik (Γερμανία) αποκαλύπτει ότι, από το 2021, η Europol προσπαθεί να αναπτύξει μοντέλα τεχνητής νοημοσύνης που θα μπορούσαν να καθορίσουν τον τρόπο αστυνόμευσης σε ολόκληρη την Ευρωπαϊκή Ένωση αλλά και πέραν αυτής.

Εσωτερικά έγγραφα, σε συνδυασμό με συνεντεύξεις με αξιωματούχους και ρυθμιστικές Αρχές, θέτουν πολύ σημαντικά ερωτήματα: πόσα δεδομένα μπορεί να συλλέξει μια αστυνομική υπηρεσία στο βωμό της ασφάλειας; Και τι συμβαίνει όταν στο παιχνίδι μπαίνει και η αυτοματοποίηση, αλλά χωρίς να υπάρχουν οι απαραίτητοι έλεγχοι;
Σε γραπτή απάντησή της στο πλαίσιο της έρευνας, η Europol ανέφερε ότι «διατηρεί αμερόληπτη στάση απέναντι σε όλους τους εμπλεκόμενους φορείς, προκειμένου να εκπληρώσει την αποστολή της – να στηρίζει τις εθνικές αρχές στην καταπολέμηση του σοβαρού και οργανωμένου εγκλήματος και της τρομοκρατίας».
Η Europol πρόσθεσε ακόμη ότι «θα συνεχίσει να βρίσκεται στην πρώτη γραμμή της καινοτομίας και της έρευνας στον τομέα της επιβολής του νόμου».
Μαζικά δεδομένα, νέες ευκαιρίες
Το πείραμα της Europol με το AI ξεκίνησε, εν μέρει, ως υποπροϊόν άλλων προτεραιοτήτων.
Το 2020 και το 2021, τρεις επιχειρήσεις «mega-hack» έδωσαν στην αστυνομία σε όλη την Ευρώπη πρόσβαση σε εκατομμύρια μηνύματα, τα οποία είχαν σταλεί μέσω κρυπτογραφημένων τηλεφώνων που χρησιμοποιούσαν εγκληματικά δίκτυα. Οι επιχειρήσεις στόχευαν τρεις υπηρεσίες: EncroChat, SKY ECC και ANOM.
Ο ρόλος της Europol ήταν ουσιαστικά να μεταφέρει τα δεδομένα που κατακρατήθηκαν μεταξύ των εθνικών Αρχών.
Ωστόσο, η υπηρεσία κράτησε αντίγραφα του συνόλου των δεδομένων – περισσότερα από 60 εκατ. μηνύματα μόνο από το EncroChat, και περισσότερα από 27 εκατ. μηνύματα από το ANOM. Οι αναλυτές της υπηρεσίας ανέλαβαν να βρουν στοιχεία θαμμένα σε έναν τεράστιο όγκο πληροφοριών, συμπεριλαμβανομένων εικόνων, αρχείων και κειμένων. Πολύ γρήγορα, συνειδητοποίησαν ότι ο όγκος των δεδομένων ήταν πέρα από αυτό που μπορούσαν να διαχειριστούν μόνοι τους.
Aυτή η διαδικασία όμως φύτεψε τον σπόρο: αν οι αναλυτές δεδομένων της Europol δεν μπορούσαν να διαβάσουν τα δεδομένα, τότε ίσως η απάντηση βρίσκεται στους αλγόριθμους. Το κίνητρο υπήρχε: οι εγκληματίες κινδύνευαν να ξεφύγουν αλλά και ανθρώπινες ζωές να χαθούν.
Εσωτερικά έγγραφα δείχνουν ότι στα τέλη του 2020, η Europol σχεδίαζε να εκπαιδεύσει επτά μοντέλα μηχανικής μάθησης στα δεδομένα του EncroChat ώστε να καταγράφουν αυτόματα οποιαδήποτε ύποπτη επικοινωνία. Αυτή ήταν η πρώτη προσπάθεια της υπηρεσίας να αναπτύξει μοντέλα τεχνητής νοημοσύνης.
Η νομιμότητα της διατήρησης και ανάλυσης των δεδομένων που προέκυψαν από το EncroChat έχει αμφισβητηθεί σε νομικό επίπεδο, με μια σχετική υπόθεση να εκκρεμεί πλέον ενώπιον του Δικαστηρίου της Ευρωπαϊκής Ένωσης.
Ανάπτυξη χωρίς επίβλεψη
Όταν δέκα επιθεωρητές από την Ευρωπαϊκή Αρχή Προστασίας Δεδομένων (EDPS), δηλαδή την Αρχή που προστατεύει την ιδιωτικότητα στην ΕΕ, έφτασαν στα κεντρικά γραφεία της Europol τον Σεπτέμβριο του 2021, για να εξετάσουν το πρόγραμμα, διαπίστωσαν μια ανησυχητική απουσία μέτρων ασφαλείας, με βασική ένδειξη ότι δεν υπήρχε σχεδόν καμία καταγραφή για την παρακολούθηση της διαδικασίας εκπαίδευσης κατά την περίοδο ανάπτυξης των μοντέλων.
«Όλα τα έγγραφα που έλαβε η Αρχή σχετικά με την ανάπτυξη των μοντέλων συντάχθηκαν μετά τη διακοπή της ανάπτυξης», ανέφεραν οι επιθεωρητές. Τα έγγραφα, συνέχισαν, «αντικατοπτρίζουν μόνο εν μέρει τις πρακτικές ανάπτυξης της μονάδας δεδομένων και τεχνητής νοημοσύνης». Η έκθεση επισημαίνει επίσης ότι οι αρμόδιοι δεν είχαν λάβει υπόψη σημαντικούς κινδύνους, όπως το ενδεχόμενο μεροληψίας κατά την εκπαίδευση και χρήση μοντέλων μηχανικής μάθησης, καθώς και ζητήματα σχετικά με την αξιοπιστία των στατιστικών τους αποτελεσμάτων.
Μέχρι τον Φεβρουάριο του 2021, η Europol είχε βάλει τέλος στο πείραμα του EncroChat, αφού και ο EDPS είχε θέσει θέμα για πιο στενή παρακολούθηση του συγκεκριμένου πρότζεκτ — κάτι που η υπηρεσία έμοιαζε να προτιμάει να αποφύγει. Ωστόσο, η σύντομη αυτή απόπειρα αποκάλυψε όχι μόνο τη φιλοδοξία της Europol, αλλά και την προθυμία της να παρακάμψει κάποιους κανόνες για να την επιτύχει.
Την ίδια στιγμή, εντός της Europol δεν υπήρχε λόγος ανησυχίας, όπως δείχνουν και τα ευρήματα που περιγράφονται λεπτομερώς σε έκθεση επιθεώρησης του EDPS από τον Δεκέμβριο του 2022, σχετικά με τα πρώτες δοκιμές της υπηρεσίας με μοντέλα μηχανικής μάθησης. Οι αναλυτές της Europol πίστευαν ότι ο κίνδυνος ένας αλγόριθμος να εμπλέξει λανθασμένα κάποιον ήταν ελάχιστος, ενώ τα μοντέλα δεν χρησιμοποιήθηκαν ποτέ σε επιχειρήσεις. Εκείνη την περίοδο, άλλωστε, το νομικό πλαίσιο της υπηρεσίας δεν της παρείχε καν τη δικαιοδοσία να αναπτύξει ή να χρησιμοποιήσει την τεχνητή νοημοσύνη σε ποινικές έρευνες.
Αυτό, όμως, θα άλλαζε σύντομα.
Η νέα αρμοδιότητα
Μέχρι τα μέσα του 2022, οι φιλοδοξίες της Europol θα συναντούσαν τις δυνατότητες που παρέχει ο νόμος.
Ένας νέος κανονισμός, που εγκρίθηκε τον Ιούνιο εκείνης της χρονιάς, έδινε στον οργανισμό εκτεταμένες αρμοδιότητες ώστε να μπορεί να αναπτύσσει και να χρησιμοποιεί εργαλεία τεχνητής νοημοσύνης και, για πρώτη φορά, να μπορεί να ανταλλάσσει επιχειρησιακά δεδομένα απευθείας με ιδιωτικές εταιρείες.
Σχεδόν αμέσως, η Europol βρήκε έναν σκοπό που θα μπορούσε να καταστήσει τη χρήση της τεχνητής νοημοσύνης πολιτικά απρόσβλητη: την καταπολέμηση της διαδικτυακής παιδικής σεξουαλικής κακοποίησης.
Η χρονική συγκυρία ήταν ευνοϊκή. Μόλις έναν μήνα νωρίτερα, η Ευρωπαϊκή Επιτροπή είχε προτείνει έναν αμφιλεγόμενο νόμο που θα υποχρέωνε τις ψηφιακές πλατφόρμες να σαρώνουν τα ιδιωτικά μηνύματα για υλικό κακοποίησης — ένα σχέδιο που, σύμφωνα με τους επικριτές του, θα υπονόμευε την κρυπτογράφηση και θα άνοιγε το δρόμο για μαζική επιτήρηση. Η ηγεσία της Europol είχε μπροστά της μια ευκαιρία.
Σε εσωτερική συνάντηση με ανώτερο αξιωματούχο της Επιτροπής, υποστήριξαν ότι τέτοιες τεχνολογίες θα μπορούσαν να προσαρμοστούν ώστε να σαρώνουν και για άλλους σκοπούς, όχι μόνο για υλικό παιδικής σεξουαλικής κακοποίησης (CSAM). Το μήνυμα του οργανισμού ήταν σαφές: «Όλα τα δεδομένα είναι χρήσιμα και πρέπει να διαβιβάζονται στις αρχές επιβολής του νόμου», αναφερόταν στα πρακτικά συνάντησης μεταξύ της Europol και ανώτερου αξιωματούχου της Γενικής Διεύθυνσης Εσωτερικών Υποθέσεων της Ευρωπαϊκής Επιτροπής το 2022, συμπληρώνοντας οτι τα «ποιοτικά δεδομένα είναι απαραίτητα για την εκπαίδευση αλγορίθμων».
Η Europol παρότρυνε την Επιτροπή να διασφαλίσει ότι οι αστυνομικές Αρχές, συμπεριλαμβανομένης και της ίδιας, θα μπορούσαν ελεύθερα να «χρησιμοποιούν εργαλεία AI για έρευνες», χωρίς να δεσμεύονται από τους περιορισμούς που προέβλεπε ο Κανονισμός για την Τεχνητή Νοημοσύνη (AI Act) — το τότε επερχόμενο νομοθετικό πλαίσιο της Ένωσης για τον περιορισμό της χρήσης αλγορίθμων που θεωρούνταν παρεμβατικοί ή υψηλού κινδύνου. Πολλά από τα συστήματα της Europol πιθανότατα θα εντάσσονταν σε αυτή την κατηγορία.
Ένας ιδιώτης ως σύμμαχος
Οι ανησυχίες της Europol σχετικά με το περιοριστικό πλαίσιο που επέβαλε ο Κανονισμός για το AI ήταν κοινές με αυτές των μεγάλων παραγόντων του ιδιωτικού τομέα. Η εγγύτητα μεταξύ της Europol και των ιδιωτικών συμφερόντων στο όνομα της καινοτομίας και της ανάπτυξης της τεχνητής νοημοσύνης μόνο μυστική δεν είναι. Αντιθέτως, τα ίδια τα έγγραφα της υπηρεσίας συχνά καταγράφουν πως η διατήρηση στενής επαφής με φορείς του ιδιωτικού τομέα θεωρείται στρατηγικής σημασίας.
Ένα σημαντικό σημείο επαφής ήταν η Thorn, μια αμερικανική οργάνωση που αναπτύσσει εργαλεία AI για να βοηθήσει την αστυνομία να εντοπίζει στο διαδίκτυο εικόνες παιδικής σεξουαλικής κακοποίησης. Μία από τις κύριες τεχνολογίες της εταιρείας είναι ο «ταξινομητής», δηλαδή ένας αλγόριθμος που είναι εκπαιδευμένος να ταξινομεί αυτόματα τεράστιους όγκους ψηφιακού υλικού, κατηγοριοποιώντας και επισημαίνοντας περιεχόμενο που θεωρεί ότι μπορεί να απεικονίζει κακοποίηση.
Από το 2022, η Thorn βρεθηκε στην πρώτη γραμμή μιας εκστρατείας λόμπινγκ στις Βρυξέλλες, υπέρ της πρότασης της Κομισιόν που θα υποχρεώνει τις πλατφόρμες ανταλλαγής μηνυμάτων να χρησιμοποιούν ταξινομητές τεχνητής νοημοσύνης όπως ο δικός της.
Στο παρασκήνιο, όμως, η Thorn και η Europol ήδη συνεργάζονταν στενά.
Ηλεκτρονική αλληλογραφία μεταξύ της εταιρείας και της Europol, που εκτείνονταν από τον Σεπτέμβριο του 2022 έως τον Μάιο του 2025, και αποκτήθηκε μέσω αιτημάτων πρόσβασης σε δημόσια έγγραφα, δείχνουν αξιωματούχους της Europol να ζητούν από την εταιρεία βοήθεια για να αποκτήσουν πρόσβαση σε εμπιστευτικό τεχνικό υλικό, καθώς πειραματίζονταν με την ανάπτυξη του δικού τους ταξινομητή.
Σε μία από αυτές τις ανταλλαγές μηνυμάτων που έλαβε χώρα λίγο πριν τεθεί σε ισχύ ο νέος κανονισμός της Europol, ένας αξιωματούχος της υπηρεσίας ρώτα εάν το προσωπικό που εργάζεται στο Analysis Project (AP) Twins της Europol [μονάδα της Europol που επικεντρώνεται στην έρευνα για CSΑΜ], θα μπορούσε να έχει πρόσβαση σε ορισμένα στοιχεία της Thorn.
Η απάντηση από εκπρόσωπο της εταιρείας ήταν σαφής: «Tονίζω ότι το παρόν έγγραφο είναι Εμπιστευτικό και δεν επιτρέπεται η κοινοποίησή του».

Πέντε μήνες αργότερα, η Europol ζήτα εκ νέου από την Thorn βοήθεια για να αποκτήσει πρόσβαση σε ταξινομητές που είχαν αναπτυχθεί στο πλαίσιο ενός έργου στο οποίο η δεύτερη είχε συμμετάσχει, ώστε η υπηρεσία να μπορέσει να τους αξιολογήσει.
Σύμφωνα με τον ειδικό στη τεχνητή νοημοσύνη Νούνο Μονίζ, η συνδιαλλαγή εγείρει σοβαρά ερωτήματα σχετικά με τη σχέση μεταξύ των δύο φορέων. «Συζητούν για τις καλύτερες πρακτικές, προβλέπουν ανταλλαγή πληροφοριών και πόρων, ουσιαστικά αντιμετωπίζοντας την Thorn ως συνεργάτη επιβολής του νόμου με προνομιακή πρόσβαση», δήλωσε ο Μονίζ, ο οποίος είναι επίσης Αναπληρωτής Καθηγητής Έρευνας στο Ινστιτούτο Lucy Family για τα Δεδομένα και την Κοινωνία στο Πανεπιστήμιο του Νοτρε Νταμ.
Η αλληλογραφία δείχνει ότι όσο η Thorn συνδιαλέγεται με την Europol πάνω στις τεχνικές λεπτομέρειες των δικών της σχεδίων για τον ταξινομητή, η οργάνωση είχε αποκτήσει και μια ασυνήθιστη πρόσβαση στα εσωτερικά σχέδια της υπηρεσίας που αφορούσαν το ΑΙ. Πρόκειται για ένα επίπεδο πρόσβασης που, στο βαθμό που γνωρίζουμε, δεν απολαμβάνει κανένας άλλος ιδιωτικός φορέας.
Αυτή η στενή συνεργασία συνεχίστηκε. Τα μηνύματα καταγράφουν το προσωπικό της Thorn να συνεννοείται με αξιωματούχους της Europol για να «τα πουν από κοντά στο μεσημεριανό», και να προσκαλείται να παρουσιάσει τον ταξινομητή της στην ομάδα CSAM της Europol, την AP Twins, στα κεντρικά γραφεία της υπηρεσίας στη Χάγη.

Στην πιο πρόσφατη ανταλλαγή ηλεκτρονικής αλληλογραφίας που εντοπίστηκε κατά την έρευνα, τον Μάιο του 2025, η Thorn συζητούσε με στελέχη της Europol σχετικά με την ανανεωμένη εκδοχή του ταξινομητή της για υλικό CSAM.
Η Europol εμμένει στη θέση της ότι «μέχρι σήμερα δεν έχει αγοράσει κανένα προϊόν λογισμικού CSAM από την Thorn». Μεγάλο μέρος της αλληλογραφίας της με την εταιρεία παραμένει αυστηρά λογοκριμένο ή δεν έχει δημοσιοποιηθεί καθόλου — παρά τις εκκλήσεις του Ευρωπαίου Διαμεσολαβητή για μεγαλύτερη διαφάνεια. Η Europol υποστηρίζει ότι ορισμένα από τα αδημοσίευτα έγγραφα «περιέχουν στρατηγικές πληροφορίες επιχειρησιακής σημασίας σχετικά με τις μεθόδους εργασίας της Europol για τη χρήση ταξινομητών εικόνας», συμπεριλαμβανομένων συγκεκριμένων συστημάτων που συζητήθηκαν εσωτερικά και με την Thorn.
Στο πλαίσιο σχολιασμού σχετικά με τα ευρήματα της έρευνας, η διευθύντρια πολιτικής της Thorn, Έμιλι Σλάιφερ, δήλωσε ότι, «λόγω της φύσης και της ευαισθησίας» του έργου της οργάνωσης, δεν μπορεί να σχολιάζει τις επαφές της με συγκεκριμένες υπηρεσίες επιβολής του νόμου. Ακόμη, πρόσθεσε πως «όπως συμβαίνει σε όλες τις συνεργασίες μας, λειτουργούμε σε πλήρη συμμόρφωση με τους ισχύοντες νόμους και τηρούμε τα υψηλότερα πρότυπα προστασίας δεδομένων και ηθικής ευθύνης».
Η Europol ανέφερε, σε απάντησή της σε ερωτήματα που υποβλήθηκαν στο πλαίσιο της έρευνας, ότι «η συνεργατική προσέγγιση της υπηρεσίας καθοδηγείται από την αρχή της διαφάνειας». Πρόσθεσε επίσης ότι «κανένα μοντέλο τεχνητής νοημοσύνης της Thorn δεν έχει εξεταστεί για χρήση από την Europol· συνεπώς, δεν υπάρχει καμία συνεργασία με τους δημιουργούς της Thorn όσον αφορά μοντέλα τεχνητής νοημοσύνης που χρησιμοποιούνται ή πρόκειται να χρησιμοποιηθούν από την Europol».
Ανεπαρκής εποπτεία
Η αδιαφάνεια στη συνεργασία της Europol με την Thorn αποτελεί κομμάτι ενός ευρύτερου ζητηματος: την ολοένα και μεγαλύτερη μυστικότητα του οργανισμού γύρω από τη χρήση του ΑΙ.
Η Europol έχει επανειλημμένα αρνηθεί να δημοσιοποιήσει κρίσιμα έγγραφα σχετικά με το πρόγραμμα τεχνητής νοημοσύνης της — συμπεριλαμβανομένων εκθέσεων συνεπειών ως προς την προστασία δεδομένων, «καρτών των μοντέλων» που εξηγούν πώς αναπτύχθηκαν οι αλγόριθμοι, καθώς και πρακτικών συνεδριάσεων του διοικητικού συμβουλίου. Όταν τελικά κάποια αρχεία δημοσιοποιούνται, τις περισσότερες φορές είναι τόσο λογοκριμένα που δεν μπορούν να αποκαλύψουν πολλά.
Σε ορισμένες περιπτώσεις, ο οργανισμός έχει υπερβεί τις νόμιμες προθεσμίες κατά εβδομάδες. Στις περισσότερες, επικαλείται εξαιρέσεις που σχετίζονται με την «δημόσια ασφάλεια» ή την «εσωτερική διαδικασία λήψης αποφάσεων» για να δικαιολογήσει τη μη δημοσιοποίηση πληροφοριών.
Ο Ευρωπαίος Διαμεσολαβητής, ωστόσο, έχει επανειλημμένα αμφισβητήσει την ασάφεια αυτών των ισχυρισμών στα προκαταρκτικά πορίσματά του, επισημαίνοντας ότι η Europol δεν έχει εξηγήσει πώς ακριβώς η δημοσιοποίηση των εγγράφων θα έθετε σε κίνδυνο τις επιχειρησιακές της δραστηριότητες.
Οι τελικές αποφάσεις για συνολικά πέντε καταγγελίες που κατατέθηκαν στο πλαίσιο αυτής της έρευνας εκκρεμούν ενώπιον του Ευρωπαίου Διαμεσολαβητή.
Η αδιαφάνεια αυτή αντικατοπτρίζει μια βαθύτερη αδυναμία στο σύστημα εποπτείας της Europol, ένα σύστημα που υποτίθεται πως θα ενισχυόταν καθώς διευρύνονται οι εξουσίες της υπηρεσίας. Αυτή η ενίσχυση ωστόσο ακόμα δεν έχει συμβεί.
Στο εσωτερικό της Europol, η ευθύνη για την παρακολούθηση των θεμελιωδών δικαιωμάτων ανήκει κυρίως στον Αξιωματούχο Θεμελιωδών Δικαιωμάτων (Fundamental Rights Officer), μια θέση που δημιουργήθηκε στο πλαίσιο της νέας αποστολής του οργανισμού για να αμβλύνει τις ανησυχίες περί κατάχρησης εξουσίας. Η θέση αυτή, όμως, που θεσμοθετήθηκε το 2023, διαθέτει ελάχιστη ουσιαστική εξουσία· οι γνωμοδοτήσεις είναι μη δεσμευτικές και δεν συνοδεύονται από κάποιο μηχανισμό επιβολής.

«Ο Αξιωματούχος Θεμελιωδών Δικαιωμάτων της Europol δεν λειτουργεί ως αποτελεσματική δικλείδα ασφαλείας απέναντι στους κινδύνους που προκύπτουν από την αυξανόμενη χρήση ψηφιακών τεχνολογιών από την υπηρεσία. Ο ρόλος είναι αδύναμος σε θεσμικό επίπεδο και στερείται εσωτερικών μηχανισμών επιβολής που θα διασφαλίζουν ότι οι γνωμοδοτήσεις του θα τηρούνται», δήλωσε η Μπάρμπαρα Σιμάο, ειδική στη λογοδοσία ζητημάτων ΑΙ στην οργάνωση Article 19, με έδρα το Λονδίνο, που παρακολουθεί τις επιπτώσεις της επιτήρησης και των τεχνολογιών ΑΙ στην ελευθερία της έκφρασης. Η ίδια είχε εξετάσει αρκετές από τις «μη δεσμευτικές» γνωμοδοτήσεις του Αξιωματούχου Θεμελιωδών Δικαιωμάτων για τα εργαλεία AI της Europol, που αποκτήθηκαν μέσω της έρευνας.
«Για να επιτελέσει πραγματικά τον ρόλο του ως μηχανισμός εσωτερικού ελέγχου, ο θεσμός αυτός πρέπει να ξεπεράσει τη συμβολική του λειτουργία — να εξετάζει ουσιαστικά τις τεχνολογίες που εφαρμόζονται και να διαθέτει πραγματική εξουσία για την προάσπιση των θεμελιωδών δικαιωμάτων», πρόσθεσε.
Πολλές από τις ίδιες τις εκθέσεις της Europol αναγνωρίζουν το πρόβλημα.
«Προς το παρόν, δεν υπάρχουν εργαλεία για την αξιολόγηση θεμελιωδών δικαιωμάτων σχετικά με τα εργαλεία τεχνητής νοημοσύνης», αναφέρει μία εξ αυτών. Η διαδικασία αξιολόγησης, σημειώνεται, δεν βασίστηκε σε κάποια καθιερωμένη μεθοδολογία, αλλά «εμπνεύστηκε» από κατευθυντήριες αρχές δεοντολογίας, μεταξύ των οποίων και από το εγχειρίδιο “The Responsible Administrator”, που χρονολογείται από το 1998.
Όταν η Europol ρωτήθηκε από τον Ευρωπαίο Διαμεσολαβητή για την έλλειψη διαφάνειας στη διαχείριση αιτημάτων πρόσβασης σε πληροφορίες, επικαλέστηκε την ύπαρξη της Κοινής Κοινοβουλευτικής Ομάδας Ελέγχου (JPSG), που είναι επιφορτισμένη με την εποπτεία της υπηρεσίας, ως απόδειξη ότι η «νομιμότητα και η λογοδοσία» της διασφαλίζονται.
Στην πραγματικότητα, όμως, οι εξουσίες της ομάδας αυτής περιορίζονται στο να υποβάλλει ερωτήσεις και να ζητά έγγραφα από την υπηρεσία.
Αυτό αφήνει την Ευρωπαϊκή Αρχή Προστασίας Δεδομένων (EDPS) ως τη μοναδική πραγματική δικλείδα ελέγχου απέναντι στη διευρυνόμενη ισχύ της Europol.
«Είναι κρίσιμο οι δραστηριότητες αυτές [της Europol] να μην οδηγήσουν σε αδικαιολόγητη διατήρηση δεδομένων ή στην ανάπτυξη ελαττωματικών εργαλείων για επιχειρησιακή χρήση σε ολόκληρη την ΕΕ», ανέφερε η EDPS στο πλαίσιο της έρευνας.
Ωστόσο, με περιορισμένο προσωπικό, πόρους και μια αποστολή που εστιάζει αποκλειστικά στην προστασία δεδομένων, η Αρχή δεν διαθέτει τα απαραίτητα μέσα για να εποπτεύει κάθε πτυχή της ανάπτυξης του ΑΙ στην ευρωπαϊκή αστυνόμευση.
Από την θεωρία στην πράξη
Μέχρι το καλοκαίρι του 2023, η ανάπτυξη ενός εσωτερικού ταξινομητή τεχνητής νοημοσύνης είχε μετατραπεί σε απόλυτη προτεραιότητα για το πρόγραμμα AI της Europol.
Ένα εσωτερικό έγγραφο του Γραφείου Θεμελιωδών Δικαιωμάτων περιέγραφε το σχέδιο: τη δημιουργία «ενός εργαλείου που χρησιμοποιεί τεχνητή νοημοσύνη (AI) για την αυτόματη ταξινόμηση εικόνων και βίντεο που φέρονται να απεικονίζουν παιδική σεξουαλική κακοποίηση (CSE) ή εκμετάλλευση».
Το έγγραφο αναγνώριζε έναν σημαντικό κίνδυνο: το γεγονός ότι μεροληπτικά δεδομένα εκπαίδευσης θα μπορούσαν να οδηγήσουν το σύστημα στο να ταυτοποιεί πιο εύκολα περιπτώσεις κακοποίησης σε εικόνες με συγκεκριμένες φυλές ή φύλα. Ωστόσο, η αναφορά περιοριζόταν σε μια σύντομη σημείωση που απλώς συνιστούσε τα δεδομένα να είναι «ισορροπημένα», ώστε «να περιοριστεί ο κίνδυνος το εργαλείο να αναγνωρίζει CSE μόνο για ορισμένες φυλές ή φύλα».
Η εκπαίδευση του μοντέλου θα βασιζόταν σε δύο σύνολα δεδομένων:
- υλικό παιδικής κακοποίησης,
- «μη-CSE» εικόνες, δηλαδή φωτογραφίες που δεν σχετίζονται με σεξουαλική κακοποίηση.
Παραμένει αδιευκρίνιστο από πού θα προερχόταν το δεύτερο σύνολο δεδομένων.
Όπως αναφέρει το έγγραφο, το υλικό με εικονες θα προερχόταν κυρίως από το Εθνικό Κέντρο Χαμένων Παιδιών (National Center for Missing and Exploited Children – NCMEC) — μια αμερικανική μη κερδοσκοπική οργάνωση που συλλέγει αναφορές από τεχνολογικές εταιρείες και συνεργάζεται στενά με τις αστυνομικές Αρχές της Βόρειας Αμερικής.
Αν και τελικά η Europol έβαλε προσωρινά στο «ράφι» τα σχέδιά της για την εκπαίδευση δικού της ταξινομητή, την ίδια περίπου περίοδο δεδομένα που παρείχε το NCMEC άρχισαν να τροφοδοτούν απευθείας το πρώτο αυτοματοποιημένο μοντέλο της υπηρεσίας που τέθηκε πλήρως σε λειτουργία, και εφαρμόστηκε τον Οκτώβριο εκείνης της χρονιάς.
Το όνομα του συστήματος είναι EU-CARES (European Union Child Abuse Referral Service / Ευρωπαϊκή Υπηρεσία Παραπομπής Περιστατικών Κακοποίησης Παιδιών) και λειτουργεί ως 24ωρο κέντρο διαχείρισης αναφορών παιδικής κακοποίησης για αναφορές από τις ΗΠΑ.
Όταν αμερικανικές εταιρείες, όπως η Meta ή η Google, εντοπίζουν πιθανώς κακοποιητικό υλικό (εικόνες ή βίντεο), είναι υποχρεωμένες από τον νόμο να τα στέλνουν στο NCMEC. Αντίστοιχα, αναφορές που συνδέονται με δραστηριότητα στην ΕΕ μεταβιβάζονται απο το NCMEC στη Europol. Το EU-CARES κατεβάζει αυτόματα κάθε αρχείο, διασταυρώνει τις πληροφορίες με τις εσωτερικές βάσεις δεδομένων της Europol και αποστέλλει τα αποτελέσματα στις αστυνομικές Αρχές των κρατών-μελών της ΕΕ, μέσα σε λίγα λεπτά.
Προτού εφαρμοστεί η αυτοματοποίηση, η διαδικασία γινόταν από αναλυτές στη Χάγη. Όμως, καθώς ο αριθμός των αναφορών πολλαπλασιάστηκε η συσσώρευση των εκκρεμών αναφορών έγινε μη διαχειρίσιμη.
Η αυτοματοποίηση έλυσε ένα πρόβλημα αλλά δημιούργησε ένα άλλο. Η ίδια η Europol προειδοποίησε για τον κίνδυνο «λανθασμένων δεδομένων από το NCMEC» και «λανθασμένων διασταυρωμένων αναφορών από παραπομπές». Με άλλα λόγια, το σύστημα θα μπορούσε να ταυτοποιήσει λανθασμένα κάποια άτομα ή να συνδέσει αθώους ανθρώπους με έρευνες για παιδική κακοποίηση.
Η Ευρωπαϊκή Αρχή Προστασίας Δεδομένων (EDPS) προειδοποίησε ότι τέτοια λάθη θα μπορούσαν να έχουν «σοβαρές συνέπειες» και ζήτησε από την Europol να υιοθετήσει ισχυρότερα μέτρα προστασίας. Ζήτησε από την υπηρεσία να αντιμετωπίσει κινδύνους όπως τις λανθασμένες αναφορές και την εισαγωγή ανακριβών ή λανθασμένα κατηγοριοποιημένων δεδομένων. Ένα τέτοιο παράδειγμα, είναι τα στοιχεία ατόμων των οποίων οι λογαριασμοί στα κοινωνικά δίκτυα είχαν κλαπεί και χρησιμοποιήθηκαν για διαμοιρασμό παράνομου υλικού — τα οποία θα μπορούσαν λανθασμένα να συνδέσουν αθώους ανθρώπους με έρευνες για παιδική κακοποίηση.
Η Europol από την πλευρά της δεσμεύτηκε να επισημαίνει τα ύποπτα δεδομένα ως «μη επιβεβαιωμένα», να προσθέσει «ενισχυμένες» ειδοποιήσεις ασυνήθιστης δραστηριότητας και να βελτιώσει το σύστημά της ώστε να αφαιρούνται οι ανακληθείσες παραπομπές. Μεταξύ και άλλων μέτρων, η υπηρεσία δήλωσε ότι αυτά τα βήματα θα αντιμετώπιζαν τις ανησυχίες της EDPS σχετικά με την έλλειψη ακρίβειας και τα σφάλματα διασταύρωσης.
Τον Φεβρουάριο του 2025, η διευθύντρια της Europol, Καθρίν Ντε Μπολ, ενημέρωσε τους νομοθέτες ότι το EU-CARES είχε επεξεργαστεί πάνω από 780.000 παραπομπές από τότε που το σύστημα τέθηκε σε λειτουργία. Πόσες από αυτές ήταν ακριβείς, παραμένει άγνωστο. Με την αφαίρεση της ανθρώπινης επεξεργασίας, η Europol αφήνει στα κράτη-μέλη την ευθύνη να καθορίσουν την εγκυρότητα των στοιχείων που λαμβάνουν. Η γερμανική ομοσπονδιακή αστυνομία, που λαμβάνει απευθείας αναφορές από το NCMEC χωρίς να χρησιμοποιεί το σύστημα της Europol, ανέφερε στο πλαίσιο αυτής της έρευνας ότι το 48,3% από τις 205.728 αναφορές που έλαβε το 2024 δεν είχε καμία αξία για διερεύνηση.

Επόμενο μέτωπο: Συστήματα αναγνώρισης προσώπου
Την ώρα που η EDPS ζητούσε μέτρα προστασίας για το EU-CARES, η Europol προχωρούσε στη διεύρυνση της αυτοματοποίησης σε έναν επίσης ευαίσθητο τομέα: τα συστήματα αναγνώρισης προσώπου.
Ήδη από το 2016, η υπηρεσία έχει δοκιμάσει και προχωρήσει στην αγορά διάφορων εμπορικών εργαλείων. Η πιο πρόσφατη αγορά είναι το NeoFace Watch (NFW) από την ιαπωνική εταιρεία τεχνολογίας NEC και προοριζόταν να αντικαταστήσει ή να συμπληρώσει ένα προηγούμενο σύστημα, γνωστό ως FACE, που έως τα μέσα του 2020 ήδη περιείχε περίπου ένα εκατομμύριο εικόνες προσώπων.
Η – σε πολύ μεγάλο επίπεδο – λογοκριμένη αλληλογραφία δείχνει ότι μέχρι τον Μάιο του 2023 η Europol είχε ήδη ξεκινήσει συζητήσεις για τη χρήση του NeoFace Watch. Όταν αργότερα υπέβαλε το νέο πρόγραμμα για έγκριση, η EDPS προειδοποίησε για τον «κίνδυνο χαμηλότερης ακρίβειας στην επεξεργασία των προσώπων των ανηλίκων» και «για την ασυνέπεια στην επεξεργασία» αν τα παλαιά και νέα συστήματα (όπως το υπάρχον FACE και το NeoFace Watch) λειτουργούσαν παράλληλα. Μετά τη διαβούλευση, η Europol αποφάσισε να εξαιρέσει τα δεδομένα των ανηλίκων κάτω των 12 ετών από την επεξεργασία, ως προφύλαξη.
Η υποβολή της Europol στην EDPS ανέφερε δύο μελέτες από το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας των ΗΠΑ (NIST) για να δικαιολογήσει την επιλογή της NeoFace ως το νέο σύστημα αναγνώρισης προσώπου.
Το NIST έχει διευκρινίσει ότι δεν χρησιμοποίησε «wild images» προερχόμενα «από το Διαδίκτυο, ούτε από βιντεοεπιτήρηση», που είναι το είδος των δεδομώνων που κυρίως θα χρησιμοποιεί η Europol. Στην πραγματικότητα, οι αξιολογήσεις του NIST για τον αλγόριθμο της NEC, όπως καταγράφονται σε άλλη αναφορά, ανέφεραν ότι οι φωτογραφικές λήψεις σε συνθήκες χαμηλού φωτισμού είχαν ποσοστό λανθασμένων ταυτοποιήσεων έως και 38%.
Η Europol υπέγραψε συμβόλαιο με την NEC τον Οκτώβριο του 2024. Παρόμοιες χρήσεις του NeoFace Watch στο Ηνωμένο Βασίλειο έχουν έρθει αντιμέτωπες με καταγγελίες για μεροληψία αλλά και ζητήματα προστασίας της ιδιωτικότητας.
Σε μία μη δεσμευτική γνωμοδότηση το Νοέμβριο του ’24, το Γραφείο Θεμελιωδών Δικαιωμάτων της Europol περιέγραψε πως το σύστημα ενέχει «κινδύνους λανθασμένων θετικών αποτελεσμάτων που μπορεί να βλάψουν το δικαίωμα της υπεράσπισης ή της δίκαιης δίκης». Το σύστημα θεωρείται υψηλού κινδύνου σύμφωνα με τον νέο Κανονισμό AI της ΕΕ. Παρ’ όλα αυτά, το Γραφείο το ενέκρινε, περιοριζόμενο στο να παροτρύνει την υπηρεσία να αναγνωρίζει τη χρήση του εργαλείου σε διασυνοριακές έρευνες, προκειμένου «να ενισχυθεί η διαφάνεια και η λογοδοσία, βασικοί παράγοντες για τη διατήρηση της εμπιστοσύνης του κοινού».
Η NEC, η εταιρεία παραγωγής, ανέφερε στο πλαίσιο της έρευνας ότι το NeoFace Watch είχε αξιολογηθεί ως «η πιο ακριβής λύση παγκοσμίως» στην πιο πρόσφατη κατάταξη δοκιμών του NIST. Πρόσθεσε ότι το προϊόν «υπέστη εκτενείς ανεξάρτητες δοκιμές από το Εθνικό Φυσικό Εργαστήριο του Ηνωμένου Βασιλείου (National Physical Laboratory – NPL) και διαπιστώθηκε ότι δεν παρουσίαζε κανένα λανθασμένο θετικό αποτέλεσμα κατά τη χρήση σε τυπικές επιχειρησιακές συνθήκες». Η εταιρεία απέφυγε να σχολιάσει λεπτομέρειες για τη συνεργασία της με την Europol.
Η υψηλή ακρίβεια από μόνη της δεν καθιστά την αναγνώριση προσώπου ασφαλή, ούτε αντιμετωπίζει τις ανησυχίες σε νομικό και δικαιωματικό επίπεδο που έχουν τεκμηριωθεί σε αντίστοιχες περιπτώσεις. Ειδικοί, όπως ο Λουκ Ροσέρ, Αναπληρωτής Καθηγητής στο Ερευνητικό Ινστιτούτο του Πανεπιστημίου της Οξφόρδης (Oxford Internet Institute), έχουν καταδείξει ότι οι μεθοδολογίες αξιολόγησης της αναγνώρισης προσώπου δεν αποτυπώνουν πλήρως την απόδοση σε πραγματικές συνθήκες, όπου παράγοντες όπως η ποιότητα των εικόνων, το μέγεθος του πληθυσμού και η δημογραφική ποικιλία μειώνουν σημαντικά την ακρίβεια — ιδίως για φυλετικές μειονότητες και ανηλίκους.
Η Μπάρμπαρα Σιμάο από το Article 19 επισήμανε ότι η έμφαση στην τεχνική απόδοση «συχνά υποβαθμίζει τους κινδύνους που συνδέονται με τις τεχνολογίες αναγνώρισης προσώπου», συμπεριλαμβανομένης της μεροληψίας κατά των ανηλίκων, που είχε επισημανθεί από την EDPS, και των κινδύνων ως προς το δικαίωμα σε δίκαιη δίκη, που εντόπισε ο ίδιος ο εσωτερικός παρατηρητής της Europol.
Το ευρύτερο σχέδιο
Ένας δεσμευτικός εσωτερικός οδικός χάρτης του 2023 αποκαλύπτει το μέγεθος της φιλοδοξίας της Europol: 25 πιθανά μοντέλα AI, που περιλαμβάνουν από την ανίχνευση αντικειμένων και γεωτοποθέτηση εικόνων, μέχρι την ανίχνευση deep-fake εικόνων και την εξαγωγή προσωπικών χαρακτηριστικών.
Αυτό το όραμα θα τοποθετούσε την υπηρεσία στο επίκεντρο της αυτοματοποιημένης αστυνόμευσης στην ΕΕ, καθώς τα εργαλεία που θα αναπτύσσονταν από την Europol θα μπορούσαν πρακτικά να χρησιμοποιηθούν από όλες τις αστυνομικές Αρχές της ΕΕ.
Τον Φεβρουάριο του 2025, η εκτελεστική διευθύντρια της Europol, Καθρίν Ντε Μπολ, ενημέρωσε τους Ευρωπαίους νομοθέτες ότι η υπηρεσία είχε υποβάλει δέκα αναλύσεις συνεπειών ως προς την προστασία δεδομένων, εκ των οποίων επτά για μοντέλα που ήδη αναπτύσονταν και τρεις για νέα, στην EDPS.
Μέλη της Κοινής Κοινοβουλευτικής Ομάδας Ελέγχου (JPSG) ζήτησαν από την Europol να παράσχει αναλυτική έκθεση για το πρόγραμμα AI. Όταν η υπηρεσία την παρέδωσε, έστειλε στους νομοθέτες ένα έγγραφο τεσσάρων σελίδων με γενικές περιγραφές των εσωτερικών διαδικασιών αξιολόγησης, χωρίς ουσιαστικές πληροφορίες για τα ίδια τα συστήματα AI.
Η Σασκία Μπρίκμοντ, Βελγίδα μέλος του Ευρωπαϊκού Κοινοβουλίου με τους Πράσινους και επί χρόνια μέλος της Ομάδας Κοινοβουλευτικού Ελέγχου της Europol, δήλωσε στο πλαίσιο της έρευνας ότι τα συστήματα τεχνητής νοημοσύνης που αναπτύσσει η Europol «μπορούν να ενέχουν πολύ σοβαρούς κινδύνους και συνέπειες για τα θεμελιώδη δικαιώματα» και ότι «ο ισχυρός και αποτελεσματικός έλεγχος» είναι «καθοριστικός».
Πρόσθεσε μάλιστα ότι, παρά τις πληροφορίες που έχει παράσχει η Europol στην Ομάδα, «παραμένει πολύ περίπλοκο για τα μέλη του Ευρωπαϊκού Κοινοβουλίου να εκπληρώσουν τα καθήκοντά τους και να εκτιμήσουν πλήρως τους κινδύνους που σχετίζονται με τη χρήση συστημάτων ΑΙ από την υπηρεσία».
Η Ευρωπαϊκή Επιτροπή έχει ανακοινώσει μεταρρυθμίσεις για την ενίσχυση της Europol και την μετατροπή της σε «μια πραγματικά επιχειρησιακή αστυνομική υπηρεσία». Αν και οι λεπτομέρειες αυτής της μεταρρύθμισης παραμένουν ασαφείς, η Επιτροπή έχει ήδη προτείνει τον διπλασιασμό του προϋπολογισμού της Europol για την επόμενη δημοσιονομική περίοδο στα 3 δις ευρώ που θα προέλθουν από δημόσιους πόρους.
*H έρευνα πραγματοποιήθηκε με την υποστήριξη των Investigative Journalism for Europe (IJ4EU) και Lighthouse Reports.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου