20 Ιουλίου 2025

Γιατί «A.I. στα σχολεία»; - Του Έκτορα-Ξαβιέ Δελαστίκ

education with robots Με αφορμή τη δημόσια συζήτηση για τη χρήση εργαλείων Τεχνητής Νοημοσύνης στα σχολεία, μιλάμε για «το διπλό θάνατο του A.I.» - του Έκτορα-Ξαβιέ Δελαστίκ

Γιατί «A.I. στα σχολεία»;

του Έκτορα-Ξαβιέ Δελαστίκ

 
Παίρνουμε ως αφορμή τη δημόσια συζήτηση για τη χρήση εργαλείων Τεχνητής Νοημοσύνης στα σχολεία, για να μιλήσουμε για «το διπλό θάνατο του A.I.». Αφ’ ενός του ίδιου του όρου, που θα έπρεπε να καταργηθεί αλλά το βλέπουμε δύσκολο. Αφ’ ετέρου για τον ίδιο τον τομέα των γλωσσικών μοντέλων σαν το ChatGPT, που βρίσκεται μπροστά σε άμεσο αδιέξοδο. Και όπως πάντα, καταλήγουμε στο πόσο άχρηστες είναι οι θεωρίες συνωμοσίας.

Υπάρχει Τεχνητή Νοημοσύνη;

Όπως συχνά κάνουμε, θα σταθούμε πρώτα απ’ όλα στις ίδιες τις λέξεις, γιατί διαμορφώνουν τη σκέψη μας. Την τελευταία πενταετία, μια σειρά τεχνολογιών έχουν -χωρίς υπερβολή- μετονομαστεί σε «Τεχνητή Νοημοσύνη» για να προσελκύσουν τους επενδυτές, για να διευκολυνθεί η έκδοση σχετικών άρθρων ή για απλό εντυπωσιασμό. Αυτό το φαινόμενο είναι όμως πιο ορατό στον κόσμο της Έρευνας, όπου παρακολουθούμε τις ίδιες τεχνικές και αλγορίθμους που γνωρίζαμε ως «μηχανική μάθηση» ή τεχνικές κατηγοριοποίησης δεδομένων να μετονομάζονται ξαφνικά σε «A.I.», ειδικά σε εμπορικές εφαρμογές. Κι όμως, ο δημόσιος διάλογος, ειδικά όσον αφορά την εισαγωγή τέτοιων εργαλείων σε σχολεία, αναφέρεται αποκλειστικά σε μια τεχνολογία, τα «Μεγάλα Γλωσσικά Μοντέλα» (LLMs) – αυτό που έχουμε στο μυαλό μας όταν λέμε «ChatGPT». Έτσι θα μιλήσουμε και εμείς σήμερα.

Ένα σημείο στο οποίο πρέπει να σταθούμε είναι πως πρόκειται για μια από τις λιγότερο αποδοτικές τεχνολογίες αυτού του τομέα. Η εκπαίδευση ενός Μεγάλου Γλωσσικού Μοντέλου εν έτει 2025 απαιτεί τόσο ανθρώπινο λόγο, όσο θα έβλεπε στη ζωή του ένας άνθρωπος σε κείμενο, ομιλία, βίντεο, συζητήσεις κλπ., αρκεί να ζούσε σχεδόν 300.000 χρόνια. Το αποτέλεσμα να είναι μια πολύ μέτρια μίμηση του ανθρώπινου λόγου, με συχνά σοβαρά λάθη σε κάθε συγκεκριμένη απάντηση.

Τέλος, η ίδια η επιλογή του όρου «Τεχνητή Νοημοσύνη» είναι παραπλανητική. Το μηχάνημα και ο αλγόριθμος είναι σίγουρα τεχνητά, αλλά τα δεδομένα που χρησιμοποιούνται δε μπορούν να είναι παρά ανθρώπινα. Πρώτα και κύρια, επειδή καλείται να μιμηθεί τον ανθρώπινο λόγο, όχι κάποια μηχανική συμπεριφορά. Δεύτερον, επειδή όταν «ταΐσουμε» ένα γλωσσικό μοντέλο με τεχνητά δεδομένα, τείνει να καταρρέει. Η δε επιλογή του όρου «Νοημοσύνη» είναι επίσης για λόγους εντυπωσιασμού. Aυτά τα συστήματα όταν είναι στη μέση μιας πρότασης έχουν πλήρη άγνοια για το πού θα καταλήξει. Αντιθέτως, επιλέγουν κάθε στιγμή μια από τις πιο πιθανές λέξεις… και όπου βγει..

Είναι σαφές ότι αυτή η μίμηση του ανθρώπινου λόγου αποτελεί «νοημοσύνη» μόνο στο μυαλό επενδυτών και ανθρώπων που θέλουν να δημιουργήσουν ένα δημόσιο διάλογο φιλικό προς τις επενδύσεις σε αυτές τις τεχνολογίες. Θα έπρεπε να υπάρξει λοιπόν ένας πρώτος «θάνατος της Τεχνητής Νοημοσύνης», με την έννοια της κατάργησης του όρου.

Η Τεχνητή Νοημοσύνη, το παιδί μου κι εγώ

Στην Ελλάδα έχει εξαγγελθεί από την περασμένη ακαδημαϊκή χρονιά η πιλοτική χρήση εργαλείων A.I. στην εκπαίδευση. Το Πανεπιστήμιο Πατρών ήδη προσφέρει πρόγραμμα επιμόρφωσης απευθυνόμενο σε εκπαιδευτικό προσωπικό Πρωτοβάθμιας και Δευτεροβάθμιας εκπαίδευσης. Αυτά τα βήματα δεν αφορούν φυσικά μόνο την ελληνική επικράτεια, αλλά αποτελούν πιλοτικές εφαρμογές βασιζόμενες σε ήδη υπάρχουσα οδηγία της Κομισιόν για τα έτη 2021-2027, με στόχο την ένταξη αυτών των εργαλείων στην πρωτοβάθμια και δευτεροβάθμια εκπαίδευση.

Μέχρις εδώ, θα μπορούσε να πει κανείς πως απλά αναγνωρίζεται ως πραγματικότητα η ύπαρξη αυτών των τεχνολογιών στα χέρια των μαθητών και προετοιμάζεται η εκπαίδευση ανάλογα. Υπάρχει όμως και ένας πυρήνας εταιρειών που προσφέρουν ανάλογες εφαρμογές για παιδιά προσχολικής ηλικίας ή και βρέφη. Πρόκειται για εφαρμογές που παρακολουθούν μονίμως τις αλληλεπιδράσεις γονιού-παιδιού και προτείνουν ερμηνείες για τη συμπεριφορά των παιδιών, ή προτάσεις για τη συμπεριφορά των γονιών. Ο κοινός τους παρονομαστής είναι η μόνιμη παρακολούθηση της ζωής του ανθρώπου και των αλληλεπιδράσεών του από εξαιρετικά νωρίς.

Παρ’ όλο που μας αρέσει η δυστοπική λογοτεχνία, θα προσπαθήσουμε να θέσουμε σε πιο λογικές και στέρεες βάσεις αυτές τις επιχειρηματικές κινήσεις: θα μιλήσουμε για το τέλος της προόδου των γλωσσικών μοντέλων, το οποίο εδώ και καιρό διαφαίνεται.

Λογοκλοπή σε τιμές κόστους

Η προετοιμασία ενός Γλωσσικού Μοντέλου, όπως προαναφέραμε, απαιτεί μεγάλο όγκο ανθρώπινου κειμένου για να μπορεί να βάλει λέξεις στη σειρά και να μιμηθεί τον ανθρώπινο λόγο. Το βασικό ερώτημα είναι λοιπόν «είμαστε οι άνθρωποι μια ανανεώσιμη πηγή δεδομένων;». Η πιο φθηνή πηγή ανθρωπίνου κειμένου φυσικά είναι το ίδιο το διαδίκτυο, από το οποίο μας διαβάζετε αυτή τη στιγμή. Συγκεκριμένα, μια καλή πηγή είναι οι σελίδες τις οποίες ήδη έχουν καταγράψει και κατηγοριοποιήσει μηχανές αναζήτησης, όπως το Google και το Bing. Αυτό επειδή μέρος της κατηγοριοποίησης έχει γίνει ήδη με έξοδα άλλων, αλλά αφορά ένα μέρος μόνο του διαδικτύου.

Ένας δεύτερος παράγοντας, τον οποίο πρέπει να αναφέρουμε, είναι ο συνεχής ρυθμός με τον οποίο αυξάνεται το ποσοστό των ανθρώπων οι οποίοι αποκτούν πρόσβαση στο διαδίκτυο. Περισσότεροι διασυνδεδεμένοι άνθρωποι είναι για τις εταιρείες Α.Ι. περισσότεροι απλήρωτοι παραγωγοί κειμένου για τα συστήματά τους. Φυσικά, η αύξηση του παγκόσμιου πληθυσμού πρέπει να εξεταστεί αμέσως μετά, καθώς και αυτή διευρύνει, αν και πιο αργά, τους «απλήρωτους παραγωγούς κειμένου».

Έχοντας πει αυτά, πρέπει να σημειώσουμε πως μεγάλο μέρος του κειμένου στο διαδίκτυο είναι χαμηλής ποιότητας. Προσεκτική προετοιμασία των δεδομένων για συγκεκριμένα μοντέλα επιτρέπει να «πετάξει» μια εταιρία το 30% έως το 50% των δεδομένων, χωρίς απώλειες στην απόδοση. Αυτό όμως δεν αλλάζει το ερώτημα: παράγουμε ως ανθρωπότητα αρκετά δεδομένα για να συντηρηθεί αυτός ο τομέας;

Ο δεύτερος θάνατος του A.I.

Οι τεχνολογίες που χρησιμοποιούμε για τα Γλωσσικά Μοντέλα όπως το ChatGPT έχουν ένα κοινό χαρακτηριστικό: ο κύριος τρόπος πλέον για να βελτιωθούν είναι να «ταΐζονται» με όλο και περισσότερα δεδομένα. Αντιστρόφως, αυτό σημαίνει πως εάν δεν εφευρίσκονται νέες τεχνικές (όπως έγινε με τη DeepSeek), η βελτίωση αυτών των μοντέλων θα σταματήσει, όταν σταματήσουν να αυξάνονται αλματωδώς οι όγκοι δεδομένων που είναι διαθέσιμοι για την εκπαίδευσή τους.

Ένα πρώτο σημαντικό δεδομένο έχουμε από τα δεδομένα της Παγκόσμιας Τράπεζας (World Bank) για τη συνδεσιμότητα στο διαδίκτυο. Το 2024, το 68% των ανθρώπων χρησιμοποιούσε το διαδίκτυο. Αυτό σημαίνει πως ο μεγάλος ρυθμός αύξησης αυτού του ποσοστού τις τελευταίες δύο δεκαετίες αναμένεται να πέσει πολύ γρήγορα, μέχρι να περιοριστεί από την αύξηση του παγκόσμιου πληθυσμού.

Ένα δεύτερο σημαντικό δεδομένο είναι πως όταν μιλάμε για την αύξηση του «ιντερνετικού πληθυσμού», το μεγαλύτερο μέρος του νέου κειμένου αφορά τα Μέσα Κοινωνικής Δικτύωσης (ΜΚΔ). Το να χρησιμοποιηθεί αυτό το κείμενο για την εκπαίδευση συστημάτων αποτελεί μια πολύ μεγάλη παραβίαση της ιδιωτικότητας των πολιτών. Ακόμα περισσότερο, οι ίδιες οι εταιρίες των ΜΚΔ είναι απίθανο να δώσουν σε τρίτους το υλικό τους, καθώς θα προτιμήσουν να το χρησιμοποιήσουν οι ίδιες για διαφημιστικούς σκοπούς ή έστω να δημιουργήσουν δικά τους συστήματα A.I. όπως έχει ήδη κάνει η Meta (Facebook). Ο τελικός σκοπός είναι να μεγιστοποιήσουν τα δικά τους κέρδη άλλωστε, όχι των ανταγωνιστών τους.

Ένα τρίτο σημαντικό δεδομένο είναι πως ήδη όλο και μεγαλύτερο μέρος του κειμένου στο διαδίκτυο παράγεται με τη συμβολή Γλωσσικών Μοντέλων. Με άλλα λόγια, όλο και μεγαλύτερο μέρος της «φθηνής» νέας πρώτης ύλης είναι «δηλητηριασμένο», όσον αφορά την αξία χρήσης του για εκπαίδευση συστημάτων. Η εκπαίδευση νέων συστημάτων πάνω σε αυτό το υλικό θα μειώνει προοδευτικά την απόδοσή τους.

Όλα αυτά τα φαινόμενα, ακόμα οι πιο νέες τεχνικές που θα επέτρεπαν να βγει από τη μύγα ξύγκι, φαίνεται να μην αρκούν τελικά. Έρευνα του 2024 προσπάθησε να αποτιμήσει όλους τους παράγοντες που αναφέραμε, μαζί και άλλους, ώστε να εκτιμήσει αν τα Γλωσσικά Μοντέλα μπορούν να συνεχίσουν να βελτιώνονται στο διηνεκές. Τα αποτελέσματα των εκτιμήσεών τους ήταν σαφή.

Η ταχύτητα με την οποία «καταναλώνονται» δεδομένα είναι πολύ μεγαλύτερη από αυτήν με την οποία τα παράγουμε. Το αποτέλεσμα είναι πως οι πιο αισιόδοξες εκτιμήσεις δίνουν λιγότερο από μια δεκαετία μέχρι να εξαντληθεί αυτός ο αναντικατάστατος πόρος.

Πώς ανταποκρίνονται οι εταιρείες υψηλής τεχνολογίας;

Όπως είδαμε με την περίπτωση της DeepSeek, ο ιδιωτικός τομέας τρομοκρατείται από την καινοτομία, ειδικά εφ’ όσον είναι ανοιχτή προς χρήση. Εταιρείες όπως η NVidia, η Microsoft και η Google Alphabet εμφάνισαν μεγάλη πτώση μετοχών, όχι μόνο γιατί έχασαν την πρωτοκαθεδρία για μια στιγμή. Κυρίως, οι μελλοντικές τους προβλέψεις για όλο και μεγαλύτερα data centers, όλο και μεγαλύτερη χρήση πόρων, ενέργειας, επεξεργαστών, ρεύματος, ψύξης, φύλαξης κ.ο.κ. έπρεπε να επανεξεταστούν προς τα κάτω εν όψει της καλύτερης πλέον, διαθέσιμης τεχνολογίας.

Η απάντησή τους εκείνο το διάστημα ήταν η απαίτηση από τα δυτικά κράτη (πέρα από τον οικονομικό πόλεμο ενάντια στην Κίνα), να δημιουργήσουν μια σειρά τεχνητές, κρατικές ανάγκες για να δικαιολογήσουν τα προαποφασισμένα συμβόλαια για παραγγελίες εξοπλισμού και υποδομών. Σε αυτό το πλαίσιο εντάσσονται προγράμματα ένταξης εφαρμογών A.I. στις εφορίες, την εκπαίδευση, την κατασκοπεία, τους στρατούς. Ως υποσημείωση στο διαρκές φλερτ των Η.Π.Α. με το νεοφασισμό, πρέπει να αναφέρουμε ειδικά τη χρήση εργαλείων A.I. από το Υπουργείο Μετανάστευσης για την αυτοματοποιημένη παρακολούθηση των ΜΚΔ αλλοδαπών. Το αποτέλεσμα -όπως ήδη φαίνεται- είναι αυτοματοποιημένες απορρίψεις βίζας ή και απελάσεις, με κριτήριο αόριστα «προβλήματα για την εξωτερική πολιτική της χώρας». Κυρίως όμως, δημιουργήθηκε έτσι ένας νέος χώρος εργασιών για ιδιώτες που θα παρέχουν τις σχετικές υπηρεσίες και υποστήριξη.

Η τωρινή απάντηση των εταιρειών στο νέο πρόβλημα που περιγράψαμε βρίσκεται στον αντίποδα. Αντί για αύξηση των αναγκών του κοινού, προτείνεται η επί της ουσίας στρατολόγησή μας πίσω από το άρμα των εταιρειών. Υπό το πρίσμα που έχουμε περιγράψει παραπάνω, η αξιοποίηση τέτοιων εργαλείων στην εκπαίδευση και το μεγάλωμα των παιδιών στέκεται πλάι στις απαιτήσεις πρώτον, να γίνονται όσο το δυνατόν περισσότερες εργασίες σε συνεργασία με εργαλεία A.I. και δεύτερον, να δίνονται σε τρίτες ιδιωτικές εταιρείες στοιχεία που έχουν να κάνουν με την αλληλεπίδραση με το κοινό. Για το τελευταίο, ένα χαρακτηριστικό παράδειγμα είναι η περίπτωση της γραμμής ψυχολογικής υποστήριξης «Crisis Text Line». Έχοντας πρόσβαση σε μεγάλες ποσότητες εξαιρετικά ευαίσθητων προσωπικών δεδομένων, τα μοιράστηκε με κερδοσκοπική spin-off εταιρεία η οποία παρήγαγε λογισμικά εξυπηρέτησης πελατών.

Οι αλληλεπιδράσεις μας με τέτοια εργαλεία σε περιβάλλον αμιγώς ελεγχόμενο από κερδοσκοπικές εταιρείες μπορούν να προσφέρουν μεγάλους όγκους καθημερινών συζητήσεων και αιτημάτων στις εταιρείες που διαβλέπουν το τέλος των δημοσίως προσβάσιμων (άρα φθηνών ή δωρεάν) δεδομένων που χρειάζονται. Ακόμα περισσότερο, η μαζική ένταξη παιδιών σε αυτό το γαϊτανάκι από τη βρεφική τους κιόλας ηλικία είναι μια απέλπιδα προσπάθεια να μετατραπεί η προσωπική ζωή σε κάθε της στάδιο και λεπτομέρεια σε ένα προϊόν προς αγορά και πώληση.

Αν θέλαμε να βάλουμε έναν επίλογο σε αυτήν την περιγραφή, θα ήταν πως μιλάμε για μια ολοκληρωτική υπαγωγή της κοινωνικής και προσωπικής ζωής στο κεφάλαιο και την κερδοφορία. Ολοκληρωτική και όσον αφορά την ολότητά της, αλλά ταυτόχρονα και όσον αφορά τη ροπή προς τον πολιτικό ολοκληρωτισμό.

Άλλωστε, κανένα κράτος δεν είχε ποτέ του πρόσβαση στον όγκο και την ποιότητα δεδομένων που μπορεί να έχει για κάθε έναν από εμάς μια διαφημιστική εταιρία με ένα σοβαρό κύκλο εργασιών. Και όπως διαχρονικά λέμε, τα δεδομένα είναι μια πρώτη ύλη για πολιτική ισχύ.

ΠΗΓΗ

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου