Από τον Suresh Venkatasubramanian | 21 Αυγούστου 2025, Bulletine of the Atomic Scientists
Στις 6 Μαρτίου 2025, το Axios ανέφερε ότι το Υπουργείο Εξωτερικών είχε ξεκινήσει ένα νέο πρόγραμμα παρακολούθησης κοινωνικών μέσων που ονομάζεται «Catch and Revoke». Ο επιδιωκόμενος στόχος αυτού του προγράμματος ήταν να χρησιμοποιήσει την τεχνητή νοημοσύνη για να βοηθήσει στην αναθεώρηση «δεκάδων χιλιάδων αποτυπωμάτων κοινωνικών μέσων κατόχων φοιτητικής βίζας» για να βρει « αποδείξεις φερόμενων συμπαθειών προς τους τρομοκράτες που εκφράστηκαν μετά την επίθεση της Χαμάς στο Ισραήλ».
Είτε θεωρείται αυτό μια τρομακτική εξέλιξη, μια συναρπαστική εφαρμογή της Τεχνητής Νοημοσύνης, μια κατάφωρη παραβίαση των δικαιωμάτων της Πρώτης Τροπολογίας, είτε ακόμα και απλώς ένα ξύσιμο κεφαλιού, αυτό το περιστατικό αποτυπώνει τη δυναμική του πώς η τεχνητή νοημοσύνη, η επιτήρηση και οι απειλές για τη δημοκρατία συνδυάζονται. Με λίγα λόγια: Η υπόσχεση της Τεχνητής Νοημοσύνης για πρόβλεψη και έλεγχο συμπεριφοράς τροφοδοτεί έναν φαύλο κύκλο επιτήρησης που αναπόφευκτα πυροδοτεί καταχρήσεις εξουσίας.
Σε όλη την ιστορία, οι άνθρωποι πάντα αναζητούσαν τρόπους για να προβλέψουν (και να ελέγξουν) τη συμπεριφορά, είτε αυτό συνίστατο σε συμβουλή ενός μαντείου, ρίψη οστών, ανάγνωση φύλλων τσαγιού, είτε ακόμα και στην εξέταση του σχήματος του προσώπου και του σώματος ενός ατόμου για τον προσδιορισμό χαρακτηριστικών προσωπικότητας (κάτι που φαίνεται εξαιρετικά σύγχρονο αν αρχίσετε να εμβαθύνετε στη βιβλιογραφία για την «Τεχνητή Νοημοσύνη των Συναισθημάτων»). Καθώς οι άνθρωποι γίνονταν πιο επιδέξιοι στη συλλογή δεδομένων διαφόρων ειδών, εμφανίστηκε ο τομέας της στατιστικής για να τους βοηθήσει στη χρήση δεδομένων για πρόβλεψη . (Ένα από τα διασκεδαστικά γεγονότα σχετικά με την έρευνα για την ΤΝ είναι ότι σχεδόν κάθε συζήτηση που συναντά κανείς σχετικά με την κατάλληλη χρήση της τεχνητής νοημοσύνης σε κάποιο κοινωνικό περιβάλλον έχει παράλληλα σημεία στην ιστορία, συχνά πολύ παλιότερα, γεγονός που καθιστά σαφές ότι οι προσπάθειες πρόβλεψης και ελέγχου της συμπεριφοράς δεν αφορούσαν ποτέ την ΤΝ.)
Το πρόβλημα με τη χρήση δεδομένων για την πραγματοποίηση προβλέψεων είναι ότι η διαδικασία μπορεί να χρησιμοποιηθεί ως όπλο κατά της κοινωνίας, απειλώντας τις δημοκρατικές αξίες. Καθώς τα όρια μεταξύ ιδιωτικών και δημόσιων δεδομένων είναι θολωμένα στη σύγχρονη κοινωνία, πολλοί δεν θα συνειδητοποιήσουν ότι η ιδιωτική τους ζωή γίνεται σημείο δεδομένων που χρησιμοποιείται για τη λήψη αποφάσεων σχετικά με αυτούς. Η Τεχνητή Νοημοσύνη έχει ενισχύσει αυτές τις δυνατότητες, εξομαλύνοντας την ατομικότητα των ανθρώπων και τοποθετώντας κάθε άτομο σε μια ομάδα που θεωρείται ότι συμπεριφέρεται με έναν συγκεκριμένο τρόπο. Και ενώ τα δεδομένα και η Τεχνητή Νοημοσύνη μπορούν να χρησιμοποιηθούν για καλό, ο μόνος τρόπος για να επιτευχθούν αυτά τα ευεργετικά αποτελέσματα είναι με περιοριστικούς, καλά σχεδιασμένους ελέγχους για την πρόληψη ζημιών στη δημοκρατία, όπως ακριβώς έκαναν οι άνθρωποι με την πυρηνική ενέργεια.
Η κίνηση προς την Τεχνητή Νοημοσύνη.
Η κίνηση προς τη στατιστική/τα μεγάλα δεδομένα/τη μηχανική μάθηση/την επιστήμη δεδομένων ήταν να παντρέψει τις βασικές τεχνικές για την πρόβλεψη συμπεριφοράς με την υπολογιστική μαγεία και τεράστιες ποσότητες νέων ειδών δεδομένων. Όλα αυτά θα μπορούσαν να μεταφραστούν στις πολυδιάστατες διανυσματικές αναπαραστάσεις που οι αλγόριθμοι μηχανικής μάθησης επεξεργάστηκαν και έφτιαξαν. Αυτοί οι αλγόριθμοι είναι αριστοτεχνικοί στην εύρεση μοτίβων στα δεδομένα και στη χρήση αυτών των μοτίβων για να κάνουν προβλέψεις για το μέλλον. Καθώς οι τεχνικές για την εκμάθηση μοτίβων από δεδομένα έγιναν πιο περίπλοκες, η δημιουργία ενός ολόκληρου ζωολογικού κήπου μεθόδων – εποπτευόμενων, μη εποπτευόμενων, ημι-εποπτευόμενων, διαδικτυακών, ενισχυμένων – η φύση των δεδομένων και το είδος της πρόβλεψης που απαιτούνταν έγιναν λιγότερο σημαντικά από το μαγικό κουτί στη μέση που χρησιμοποιείται για την εξαγωγή συμπερασμάτων. Οι άνθρωποι είχαν αποσυμφράσει το πρόβλημα της πρόβλεψης.
Η εύρεση μοτίβων που υποτίθεται ότι προβλέπουν πώς συμπεριφέρονται οι άνθρωποι είναι μόνο το πρώτο βήμα. Η παρόρμηση «Τεχνητή Νοημοσύνη για καλό» εμφανίζεται γρήγορα εδώ: Εάν οι υπεύθυνοι μπορούν να προβλέψουν πώς συμπεριφέρονται οι άνθρωποι σε διαφορετικές συνθήκες, ίσως μπορούν να τους βοηθήσουν να βρουν τον καλύτερο εαυτό τους. Εάν οι ειδικοί μπορούν να προβλέψουν ποιοι είναι πιθανό να έχουν κακές οικονομικές συνήθειες, ίσως μπορούν να κατευθύνουν περισσότερη εκπαίδευση προς το μέρος τους ή να τους ωθήσουν σε καλύτερες πρακτικές. Εάν οι εκπαιδευτικοί μπορούν να προβλέψουν ποιοι μαθητές θα δυσκολευτούν στο σχολείο, ίσως μπορούν να κατευθύνουν περισσότερους πόρους για να τους βοηθήσουν. Ένα πρόσφατο άρθρο σχετικά με την Τεχνητή Νοημοσύνη και την ευεξία στο Marie Claire αποτελεί παράδειγμα αυτού του συναισθήματος: Τι θα γινόταν αν, με τη βοήθεια της Τεχνητής Νοημοσύνης, «το ρολόι σας δεν μπορούσε μόνο να ανιχνεύει ασθένειες και προβλήματα υγείας πριν προκύψουν, αλλά και να επικοινωνεί απευθείας με τους γιατρούς μας για να μας υποδεικνύουν θεραπεία; Τι θα γινόταν αν μπορούσε να επικοινωνεί με τις υπόλοιπες συσκευές σας σε πραγματικό χρόνο και να βελτιστοποιεί το περιβάλλον σας, ώστε η κρεβατοκάμαρά σας να είναι έτοιμη για τον πιο ξεκούραστο ύπνο σας , να διατηρεί το ψυγείο σας γεμάτο με τα τρόφιμα που πραγματικά χρειάζεται το σώμα σας και τον εξοπλισμό γυμναστικής στο σπίτι σας βαθμονομημένο ώστε να σας προσφέρει την πιο αποτελεσματική προπόνηση για το επίπεδο ενέργειάς σας; Τι θα γινόταν αν, με τη βοήθεια της Τεχνητής Νοημοσύνης , ολόκληρο το περιβάλλον διαβίωσής σας μπορούσε να είναι τόσο βελτιστοποιημένο ώστε να βυθίζεστε στο ακριβές είδος ευεξίας που χρειάζονται το σώμα και το μυαλό σας ανά πάσα στιγμή, χωρίς να κουνάτε ούτε το δαχτυλάκι σας;»
Αυτό που καθιστά την πρόβλεψη μέσω τεχνητής νοημοσύνης τόσο ισχυρή όσο και επικερδή είναι η δυνατότητα ελέγχου του τι θα συμβεί στη συνέχεια. Εάν μια τράπεζα μπορεί να ισχυριστεί ότι προβλέπει τι θα κάνουν οι άνθρωποι με ένα δάνειο, μπορεί να το χρησιμοποιήσει για να αποφασίσει εάν θα πρέπει να το λάβουν. Εάν ένας υπεύθυνος εισαγωγών μπορεί να ισχυριστεί ότι προβλέπει την απόδοση των φοιτητών στο κολέγιο, μπορεί να το χρησιμοποιήσει για να αποφασίσει ποιους φοιτητές θα δεχτεί.
Το εμπόριο δεδομένων.
Μόλις οι άνθρωποι χρησιμοποιήσουν την Τεχνητή Νοημοσύνη για να «μάθουν» κάτι για τον εαυτό τους, κάποιος θα πουλήσει αυτές τις πληροφορίες σε κάποιον άλλο που όχι μόνο θέλει να «μάθει» κάτι για ένα άτομο ή μια ομάδα ανθρώπων, αλλά και να αποσπάσει μια συγκεκριμένη συμπεριφορά από αυτό το άτομο ή αυτά τα άτομα που μπορεί να προκύψει από αυτή τη γνώση.
Οι ειδικοί έχουν σχολιάσει εκτενώς αυτή τη δυναμική —της συλλογής δεδομένων με μοναδικό σκοπό την τροφοδότηση μιας ολόκληρης οικονομικής επιχείρησης εμπορίας δεδομένων— με πιο εμφανή τον όρο « καπιταλισμός επιτήρησης ». Αυτό που κάνει η Τεχνητή Νοημοσύνη είναι να την μετατρέπει σε ένα μηχανισμό επιτήρησης, μια συσκευή που πηγαίνει μόνο προς μία κατεύθυνση, η οποία έχει κάπως έτσι: Για να βγάλω τα συμπεράσματα που θέλω να βγάλω για να μάθω περισσότερα για εσάς, πρέπει να συλλέξω περισσότερα δεδομένα για εσάς. Για να λειτουργήσουν τα εργαλεία Τεχνητής Νοημοσύνης μου, χρειάζομαι δεδομένα για πολλούς από εσάς. Και μόλις συλλέξω αυτά τα δεδομένα, μπορώ να τα αξιοποιήσω πουλώντας τα σε άλλους που θέλουν να χρησιμοποιήσουν την Τεχνητή Νοημοσύνη για να βγάλουν άλλα συμπεράσματα για εσάς. Η Τεχνητή Νοημοσύνη δημιουργεί ζήτηση για δεδομένα, αλλά γίνεται επίσης το αποτέλεσμα της συλλογής δεδομένων.
Το πρόβλημα με το να είσαι κατακλυσμένος από δεδομένα και συμπεράσματα είναι το εξής: Δεν περιορίζεται ποτέ σε κάποιον αθώο ή καλοπροαίρετο σκοπό. Σχεδόν αμέσως γίνεται ένα δελεαστικό όπλο για όσους θέλουν να ασκήσουν εξουσία σε μια κοινωνία, με ή χωρίς τη συγκατάθεση των ανθρώπων σε αυτήν την κοινωνία. Και από εκεί προέρχονται οι μεγαλύτερες απειλές για τη δημοκρατία και τη δημοκρατική διακυβέρνηση.
Θολές γραμμές.
Βλέπω τη δημοκρατία διευρυμένα. Αν η κοινωνία πιστεύει στη διακυβέρνηση από, για και από τον λαό, τα μέλη της πρέπει να νιώθουν άνετα να εκφράζονται δημόσια, να είναι ο εαυτός τους κατ’ ιδίαν και να έχουν σαφείς γραμμές μεταξύ των δύο σφαιρών δραστηριότητας. Όπως μας έχουν προειδοποιήσει αμέτρητοι μελετητές , υπάρχουν σοβαρές επιπτώσεις για την κοινωνία όταν αυτές οι γραμμές γίνονται θολές.
Αλλά αυτό ακριβώς κάνει η παρακολούθηση μέσω τεχνητής νοημοσύνης. Υπάρχουν πολλές σφαίρες της ζωής που οι άνθρωποι υπέθεταν ότι ήταν ιδιωτικές ή τους είχαν υποσχεθεί ότι θα ήταν ιδιωτικές, αλλά λόγω της παρακολούθησης μέσω τεχνητής νοημοσύνης έχουν ωθηθεί στη δημόσια σφαίρα – με σοβαρές συνέπειες. Σε ένα καθεστώς μετά το Dobbs , οι συσκευές παρακολούθησης δεδομένων περιόδου χρησιμοποιούνται πλέον για τη νόμιμη δίωξη των αιτούντων άμβλωση. Στην πραγματικότητα, νωρίτερα αυτόν τον μήνα, ένα δικαστήριο διαπίστωσε ότι « η Meta παραβίασε τον Νόμο περί Παραβίασης της Ιδιωτικότητας της Καλιφόρνια όταν κατέγραψε σκόπιμα τις ευαίσθητες πληροφορίες υγείας εκατομμυρίων γυναικών μέσω της εφαρμογής παρακολούθησης περιόδου Flo ». Στην επιδίωξη στόχων απέλασης, η ICE χρησιμοποιεί τώρα τις πιο ιδιωτικές ιατρικές και οικονομικές πληροφορίες των ανθρώπων που κοινοποιούνται στην κυβέρνηση με την υπόσχεση προστασίας της ιδιωτικής ζωής. Οι συσκευές Echo της Amazon έχουν υποβληθεί σε εντάλματα για τις ηχογραφήσεις που έγιναν από τη συσκευή μέσα στα σπίτια μας – ηχογραφήσεις που έγιναν ακόμη και όταν οι παρόντες δεν μιλούσαν απευθείας στη συσκευή . (Στο σπίτι μου έχουμε δυνατές και ενθουσιώδεις πολιτικές συζητήσεις και έχουμε αποσυνδέσει εντελώς το Echo μας από φόβο μήπως οι δηλώσεις μας παρερμηνευτούν αργότερα.)
Πράγματα που κάποτε θεωρούσαν ιδιωτικά δεν μένουν πλέον στην ιδιωτική σφαίρα. Επιπλέον, υπάρχουν πράγματα που οι άνθρωποι γνώριζαν ότι ήταν δημόσια -κατά κάποιο τρόπο- αλλά ποτέ δεν φαντάζονταν ότι θα τα βγάζαμε εκτός πλαισίου και θα τα μετατρέπαμε σε όπλα. Τα κουδούνια Ring της Amazon είναι στραμμένα προς τα έξω, κοιτάζοντας τους δρόμους μας, τους γείτονές μας και όλους όσους έρχονται στην πόρτα μας. Οι άνθρωποι μπορεί να μην έχουν καμία προσδοκία για ιδιωτικότητα σε δημόσιους χώρους, αλλά θα περίμεναν η αστυνομία να κατασχέσει την ροή βίντεο από το κουδούνι ενός γείτονα για να κρίνει τον βαθμό απειλητικότητας αν κουνούσαν τα χέρια τους άγρια σε μια ζωντανή συζήτηση για το γκαζόν τους ή για ένα περιστατικό στη γειτονιά μας; Αυτό θέλει να κάνει ο νέος -και παλιός- Διευθύνων Σύμβουλος της Ring με τα πλέον πανταχού παρόντα κουδούνια.
Οι ροές δεδομένων στα μέσα κοινωνικής δικτύωσης σίγουρα δεν είναι ιδιωτικές. Αλλά οι άνθρωποι έχουν το δικό τους στυλ και προσωπικότητα στον τρόπο που δημοσιεύουν, και η πιο συνηθισμένη έκρηξη στα μέσα κοινωνικής δικτύωσης είναι όταν κάποιος αναμεταδίδει την ανάρτηση ενός άλλου ατόμου εκτός πλαισίου και προκαλεί σάλο στο διαδίκτυο. Τι συμβαίνει τώρα εάν αυτή η εκτός πλαισίου ανάρτηση υποβληθεί σε επεξεργασία από την Τεχνητή Νοημοσύνη για να προσδιοριστεί εάν το άτομο που αναδημοσιεύει είναι υποστηρικτής της τρομοκρατίας, όπως προτείνει τώρα το Υπουργείο Εξωτερικών ; Και τι γίνεται αν αυτές οι αναρτήσεις συνδυαστούν τώρα με υλικό παρακολούθησης από μια κάμερα Ring καθώς ένα άτομο διαδηλώνει στον δρόμο ως μέρος μιας διαμαρτυρίας που τώρα ερμηνεύεται ως συμπάθεια προς μια τρομοκρατική οργάνωση; Ό,τι είναι δημόσιο τώρα επιτηρείται, και ό,τι είναι ιδιωτικό είναι τώρα δημόσιο.
Ομογενοποίηση συμπεριφοράς.
Υπάρχει ένα επιχείρημα που προβάλλεται για την υπεράσπιση της χρήσης της Τεχνητής Νοημοσύνης στην επιτήρηση. Έχει ως εξής: «Αυτά τα συστήματα επιτήρησης είναι κακά επειδή είναι ανακριβή και η Τεχνητή Νοημοσύνη θα το διορθώσει αυτό». Αυτή ήταν μια κοινή συλλογιστική που έγινε στις συζητήσεις για την αναγνώριση προσώπου, όπου η πρώιμη κριτική για αυτά τα συστήματα επικεντρώθηκε στην αδυναμία τους να αναγνωρίσουν πιο σκούρους τόνους δέρματος ή χαρακτηριστικά προσώπου που δεν είναι ανδρικά και λευκά. Το πρόβλημα είναι ότι η Τεχνητή Νοημοσύνη δεν θα το διορθώσει αυτό. Οι προβλέψεις που γίνονται από τα συστήματα Τεχνητής Νοημοσύνης σχετικά με την πιθανή μελλοντική μας συμπεριφορά βασίζονται σε πρότυπα συμπεριφοράς που παρατηρούνται σε πολλούς ανθρώπους. Ως εκ τούτου, τυχόν ισχυρισμοί ακρίβειας δεν σημαίνουν «ξέρουμε πώς είναι πιθανό να συμπεριφερθείς εσύ, Suresh, σε αυτό το σενάριο». Σημαίνουν «έχουμε αποφασίσει ότι εσύ, Suresh, είσαι μέλος αυτής της κατηγορίας ατόμων που κατά μέσο όρο συμπεριφέρονται με αυτόν τον τρόπο».
Αυτή η εξομάλυνση της ατομικότητάς μας, των ιδιορρυθμιών μας και των μοναδικών τάσεων μας να αντιδρούμε σε ερεθίσματα γύρω μας είναι αντίθετη με την ιδέα της δημοκρατίας ως εορτασμού της πρωτοτυπίας. Είναι μια ανατριχιαστική αιτιώδης αντιστροφή. Δεν παίρνει τις ατομικές μας εκφράσεις ελευθερίας και βρίσκει κάποιο κοινό έδαφος. Αφαιρεί όλα τα πράγματα που μας κάνουν μοναδικούς και διαφορετικούς για σκοπούς πρόβλεψης και ελέγχου. Και αυτό είναι σκόπιμο και όχι τυχαίο.
Η επιθυμία για επιτήρηση είναι διακομματική. Πρόκειται για εξουσία, όχι για κομματική πολιτική. Αυτό φαίνεται δύσκολο να γίνει αποδεκτό οκτώ μήνες μετά την έναρξη της τρέχουσας κυβέρνησης, η οποία έχει καταπατήσει κάθε είδους προστασία από την αχαλίνωτη επιτήρηση, τη συλλογή δεδομένων και την (κακή) χρήση της Τεχνητής Νοημοσύνης που μπορεί να βρει. Αλλά ο πειρασμός να συλλέγονται δεδομένα και στη συνέχεια να χρησιμοποιούνται για επιτήρηση είναι εξαιρετικά ισχυρός, ακόμη περισσότερο εντός της κυβέρνησης, όπου τόσα πολλά δεδομένα συλλέγονται ως κάτι αυτονόητο, και οι άνθρωποι εμπιστεύονται (ή αναγκάζονται να εμπιστευτούν) τις κυβερνητικές υπηρεσίες για τον χειρισμό ορισμένων από τα πιο ιδιωτικά οικονομικά και προσωπικά τους δεδομένα.
Επινόηση ελέγχων.
Αυτή η κατάσταση παρουσιάζει ένα πολύ δύσκολο αίνιγμα για όσους από εμάς (συμπεριλαμβανομένου και εμού) θέλουμε να διατηρήσουμε την ελπίδα ότι η κοινωνία μπορεί όντως να χρησιμοποιήσει την Τεχνητή Νοημοσύνη και τα δεδομένα για καλό σκοπό και πιστεύουμε ότι οι άνθρωποι χρειάζονται απλώς τα κατάλληλα προστατευτικά κιγκλιδώματα για να το κάνουν αυτό. Η ευκολία με την οποία μπορεί να παραβιαστεί το κράτος δικαίου, να καταστραφούν οι προστασίες και να γίνει κατάχρηση των δεδομένων στην υπηρεσία της εξουσίας εγείρει ένα τεράστιο ερώτημα σχετικά με τον κίνδυνο οποιασδήποτε συλλογής και χρήσης δεδομένων, ακόμη και αν υπήρχε ένας καλοήθης σκοπός εξαρχής.
Δεν έχω ακόμη μια καλή απάντηση στο ερώτημα που έθεσα. Αλλά θα σας αφήσω, τους αναγνώστες του Bulletin , με μια εικόνα που θυμίζει την ίδρυση αυτής της έκδοσης. Η ανάπτυξη της Τεχνητής Νοημοσύνης παρουσιάζεται από χώρες σε όλο τον κόσμο ως «κούρσα εξοπλισμών». Οι καλές περιπτώσεις χρήσης της Τεχνητής Νοημοσύνης εύκολα, και συχνά, μετατρέπονται σε κακές. Η παραγωγή συστημάτων Τεχνητής Νοημοσύνης απαιτεί τεράστιες ποσότητες συλλογής δεδομένων και χρήσης ενέργειας. Τα συμπεράσματα και οι γνώσεις που παράγονται από αυτά τα συστήματα Τεχνητής Νοημοσύνης μπορούν να είναι εντελώς επικίνδυνα σε λάθος χέρια. Όλα αυτά κάνουν την Τεχνητή Νοημοσύνη να μοιάζει με την πυρηνική ενέργεια – ραδιενεργή, επικίνδυνη και, ναι, μερικές φορές χρήσιμη. Ο μόνος τρόπος με τον οποίο οι άνθρωποι μπόρεσαν να αξιοποιήσουν την πυρηνική ενέργεια είναι με περιοριστικούς, καλά σχεδιασμένους ελέγχους, και ενώ αυτοί μπορεί να έχουν περιορίσει ορισμένες πιθανές εμπορικές ευκαιρίες, συνολικά έχουν βοηθήσει να διατηρηθεί ο κόσμος ασφαλέστερος και πιο ελεύθερος από ό,τι χωρίς αυτήν. Δεν βλέπω κανέναν τρόπο να συνεχίσουμε να χρησιμοποιούμε την Τεχνητή Νοημοσύνη χωρίς παρόμοια περιοριστικούς, καλά σχεδιασμένους ελέγχους για να αποτρέψουμε τη ζημιά στη δημοκρατία και την κοινωνία μας και να διατηρήσουμε την ελευθερία και την ανεξαρτησία της.
Σημείωση συντάκτη: Αυτό το άρθρο δημιουργήθηκε με την υποστήριξη του the Future of Life Institute.