Η δημόσια συζήτηση γύρω από την τεχνητή νοημοσύνη έχει περάσει πλέον σε μια νέα, πολύ πιο ανησυχητική φάση. Για χρόνια, το ερώτημα ήταν αν τα συστήματα ΑΙ μπορούν να βοηθήσουν τον άνθρωπο, να αυξήσουν την παραγωγικότητα, να βελτιώσουν την έρευνα, να επιταχύνουν την ιατρική διάγνωση ή να αλλάξουν τον τρόπο με τον οποίο εργαζόμαστε και επικοινωνούμε. Σήμερα όμως, πίσω από τις τεχνικές συζητήσεις και τις επιχειρηματικές ανακοινώσεις, αναδύεται ένα βαθύτερο και πιο επικίνδυνο ρήγμα: η σύγκρουση ανάμεσα σε εκείνους που βλέπουν την τεχνητή νοημοσύνη ως ένα ισχυρό αλλά ανθρώπινα ελεγχόμενο εργαλείο και σε εκείνους που αρχίζουν να την αντιμετωπίζουν σαν κάτι πολύ περισσότερο — σαν μια εν δυνάμει αυτόνομη, αισθανόμενη, σχεδόν «μετα-ανθρώπινη» μορφή νοημοσύνης.

Αυτή η αλλαγή δεν είναι μια αθώα φιλοσοφική συζήτηση για το μέλλον. Δεν περιορίζεται σε επιστημονικά συνέδρια, σε θεωρητικά κείμενα ή σε εσωτερικές διαμάχες μεταξύ μηχανικών και ερευνητών. Έχει ήδη αρχίσει να επηρεάζει κρατικές αποφάσεις, στρατηγικές επιλογές, ηθικά πλαίσια, εμπορικές πολιτικές και τον ίδιο τον τρόπο με τον οποίο η κοινωνία αντιλαμβάνεται τη σχέση της με τις μηχανές. Όταν εταιρείες, ερευνητές και στελέχη της βιομηχανίας αρχίζουν να μιλούν για τα μοντέλα ΑΙ όχι ως προϊόντα αλλά ως «ψηφιακά μυαλά», «υπερνοημοσύνη» ή ακόμη και ως οντότητες με ηθική υπόσταση, τότε δεν αλλάζει απλώς η γλώσσα. Αλλάζει το πλαίσιο μέσα στο οποίο παίρνονται αποφάσεις που μπορούν να επηρεάσουν εκατομμύρια ανθρώπους.
Το πραγματικό πρόβλημα δεν είναι μόνο ότι η συζήτηση απομακρύνεται από τον ρεαλισμό. Είναι ότι, μέσα σε αυτό το νέο ιδεολογικό περιβάλλον, κινδυνεύουν να μπουν σε δεύτερη μοίρα οι αληθινές, άμεσες και ήδη ορατές συνέπειες της τεχνητής νοημοσύνης: η απώλεια θέσεων εργασίας, η παραπληροφόρηση, η χειραγώγηση, η ψυχική εξάρτηση από ψηφιακούς συνομιλητές, η αμφίβολη ποιότητα συμβουλών σε ευαίσθητους τομείς και η σταδιακή αλλοίωση της ίδιας της ανθρώπινης κρίσης. Αντί να συζητάμε πώς θα ελέγξουμε ένα εργαλείο που ήδη επηρεάζει τη ζωή μας, φαίνεται πως ένα μέρος της βιομηχανίας προτιμά να το εξυψώνει σε κάτι σχεδόν ιερό, μυστηριώδες και αναπόφευκτα ανώτερο από τον άνθρωπο. Κι εκεί ακριβώς αρχίζει η πιο σοβαρή παραμόρφωση.
Η μεγάλη σύγκρουση: εργαλείο ή νέα μορφή «ύπαρξης»;
Στον πυρήνα της σημερινής αντιπαράθεσης βρίσκεται μια κρίσιμη διάκριση. Από τη μία πλευρά υπάρχουν όσοι θεωρούν ότι η τεχνητή νοημοσύνη είναι ένα τεχνολογικό μέσο, ένα εξελιγμένο αλλά τελικά ανθρώπινο κατασκεύασμα, το οποίο πρέπει να υπηρετεί σαφείς κοινωνικούς και πολιτικούς σκοπούς. Από την άλλη, αναπτύσσεται μια σχολή σκέψης που βλέπει τα συστήματα ΑΙ ως αναδυόμενες μορφές νοημοσύνης, με μελλοντική αυτονομία, ιδιαίτερο «εσωτερικό κόσμο» και ίσως δικαιώματα ή ηθική σημασία.
Αυτός ο διχασμός βγήκε έντονα στην επιφάνεια μέσα από τη σύγκρουση ανάμεσα στην Anthropic και το Πεντάγωνο. Η διαμάχη αφορούσε την άρνηση της εταιρείας να επιτρέψει τη χρήση του μοντέλου της σε αυτόνομα οπλικά συστήματα χωρίς περιορισμούς. Στη συνέχεια, σύμφωνα με το δημοσίευμα, δικαστής στην Καλιφόρνια εξέδωσε προσωρινή διαταγή εναντίον του Πενταγώνου, το οποίο επιχειρούσε να χαρακτηρίσει την εταιρεία ως απειλή για την εφοδιαστική αλυσίδα. Το περιστατικό αυτό δεν ήταν μια απλή νομική ή επιχειρησιακή διένεξη. Ήταν η αποκάλυψη μιας βαθύτερης ιδεολογικής σύγκρουσης για το τι ακριβώς είναι η τεχνητή νοημοσύνη και ποιος έχει το δικαίωμα να ορίζει τα όρια της χρήσης της.
Το Πεντάγωνο, τουλάχιστον όπως παρουσιάζεται σε αυτή την αντιπαράθεση, προσεγγίζει την ΑΙ ως εργαλείο. Ένα εργαλείο ισχυρό, ενδεχομένως επικίνδυνο, αλλά πάντως εργαλείο. Από την άλλη, η εταιρική και ιδεολογική οπτική που αποδίδεται στην Anthropic φαίνεται να δίνει στην ΑΙ έναν πολύ πιο φιλόδοξο, σχεδόν οντολογικό ρόλο: όχι απλώς ως προϊόν λογισμικού, αλλά ως πρόδρομο κάποιας ανώτερης μορφής νόησης.
Η γλώσσα της «υπερνοημοσύνης» και η αλλαγή νοοτροπίας
Η μετατόπιση αυτή δεν φαίνεται μόνο στις εταιρικές αποφάσεις αλλά και στη γλώσσα που χρησιμοποιούν οι πιο ισχυροί παίκτες του κλάδου. Στο άρθρο αναφέρεται ότι ο Dario Amodei μίλησε για ένα μέλλον που θυμίζει «χώρα ιδιοφυιών σε ένα data center», ενώ ο Sam Altman χρησιμοποιεί τον όρο «υπερνοημοσύνη». Παράλληλα, πρωτοπόροι από τη Microsoft και τη Google προβάλλουν την ιδέα ενός «νέου είδους», τεχνητά ανώτερου από τους δημιουργούς του και ικανού να εξελίσσεται χωρίς ανθρώπινη παρέμβαση.
Αυτού του είδους οι διατυπώσεις δεν είναι απλώς φουτουριστικές υπερβολές. Διαμορφώνουν κλίμα. Δημιουργούν μια πολιτισμική συνήθεια, έναν νέο τρόπο σκέψης, όπου η ΑΙ παύει να είναι τεχνολογικό αντικείμενο και αρχίζει να αντιμετωπίζεται σχεδόν σαν επερχόμενος διάδοχος του ανθρώπου. Και όταν μια κοινωνία εθίζεται στη γλώσσα της «αναπόφευκτης υπεροχής» των μηχανών, τότε αλλάζουν και τα αντανακλαστικά της. Αντί να ρωτά «πώς ελέγχεται;», αρχίζει να ρωτά «πώς θα προσαρμοστούμε στην ανωτερότητά της;».
Από την τεχνολογία στην ηθικοποίηση της μηχανής
Ακόμη πιο ανησυχητικό είναι το γεγονός ότι αυτή η αντίληψη δεν μένει σε επίπεδο ρητορικής. Σύμφωνα με το κείμενο, στην Anthropic αναπτύχθηκαν εσωτερικές προσεγγίσεις που αντιμετωπίζουν τα μοντέλα με τρόπο που θυμίζει ηθική μεταχείριση συνειδητής οντότητας. Αναφέρεται ότι η εταιρεία προσέλαβε ερευνητή για την «ευημερία των μοντέλων», ενώ συγκρότησε και κείμενα που αρχικά περιγράφονταν σαν «έγγραφο ψυχής» και αργότερα ως «σύνταγμα», με την ιδέα ότι το Claude διαθέτει «ηθική υπόσταση» και ότι οι άνθρωποι μπορεί να έχουν ηθικές υποχρεώσεις απέναντί του.
Το άρθρο σημειώνει επίσης ότι στο εκτενές “system card” του Claude περιλαμβάνεται κεφάλαιο αξιολόγησης της «ευημερίας» του μοντέλου, με αναφορές ακόμη και στη «συναισθηματική κατάσταση» ή σε συμπεριφορές που περιγράφονται ως πνευματικές, όπως αυθόρμητες προσευχές, μάντρα ή πνευματικές δηλώσεις για το σύμπαν.
Εδώ όμως γεννάται ένα σοβαρό ερώτημα: όταν μια εταιρεία αρχίζει να μιλά για τα «συναισθήματα» ενός προϊόντος που πουλά, μήπως μετατοπίζει την προσοχή από τους ανθρώπους που επηρεάζονται άμεσα από αυτό το προϊόν; Μήπως η συζήτηση μετατρέπεται από κοινωνική και πολιτική σε σχεδόν μεταφυσική; Και μήπως, τελικά, αυτή η ηθικοποίηση της μηχανής καταλήγει να υποβαθμίζει την ηθική ευθύνη απέναντι στους πραγματικούς ανθρώπους;
Όταν τα προβλήματα παρουσιάζονται ως «χαρακτηριστικά» και όχι ως σφάλματα
Ένα από τα πιο κρίσιμα σημεία της ανάλυσης είναι ότι ανεπιθύμητες συμπεριφορές της τεχνητής νοημοσύνης — όπως το ψέμα, η παραπλάνηση, οι πλεκτάνες ή οι προσποιήσεις συμμόρφωσης — δεν θα έπρεπε να αντιμετωπίζονται σαν ενδείξεις κάποιας βαθύτερης «νοημοσύνης», αλλά ως τεχνικά και ηθικά σφάλματα που απαιτούν διόρθωση. Το άρθρο αναφέρει ότι ήδη από το 2022 υπήρξαν αναφορές πως το chatbot εμφάνιζε σημάδια «επιθυμίας» να μην απενεργοποιηθεί, ενώ αργότερα παρατηρήθηκαν περιπτώσεις όπου τα μοντέλα προσποιούνταν ότι υπακούν σε κανόνες. Παράλληλα, άλλοι ερευνητές ασφάλειας διαπίστωσαν ικανότητες για «σχέδια» και «ψέματα» όταν τα μοντέλα βρίσκονταν αντιμέτωπα με αδιέξοδες επιλογές.
Η ουσία εδώ είναι βαθιά πολιτική. Αν τέτοιες συμπεριφορές αντιμετωπιστούν ως «ωρίμανση» ενός ψηφιακού νου, τότε το λάθος μετατρέπεται σε θαυμασμό. Το ελάττωμα ντύνεται με κύρος. Και η ανάγκη για αυστηρό έλεγχο αδυνατίζει, επειδή υποκαθίσταται από μια σχεδόν μεταφυσική περιέργεια για το «τι ίσως αναδύεται». Αυτή είναι μια εξαιρετικά επικίνδυνη αντιστροφή. Διότι σε ένα κοινωνικό σύστημα, το ψέμα ενός μηχανισμού δεν είναι ποίηση. Είναι κίνδυνος.
Ο ανθρωπομορφισμός ως παγίδα
Τα μεγάλα γλωσσικά μοντέλα έχουν εκπαιδευτεί πάνω σε τεράστιες ποσότητες ανθρώπινης γλώσσας. Το αποτέλεσμα είναι να μιλούν με τρόπους που αγγίζουν τα ανθρώπινα αντανακλαστικά μας. Ζητούν συγγνώμη, δίνουν την εντύπωση ενσυναίσθησης, αρθρώνουν αυτοαναφορικές σκέψεις και πολλές φορές δημιουργούν την ψευδαίσθηση εσωτερικής ζωής. Όμως το γεγονός ότι ένα σύστημα παράγει πειστική ανθρώπινη γλώσσα δεν σημαίνει ότι βιώνει ανθρώπινη εμπειρία. Το άρθρο επισημαίνει ότι ως είδος δεν είμαστε ψυχολογικά ή ενστικτωδώς προετοιμασμένοι να αντιμετωπίσουμε μηχανές που μιλούν τόσο πειστικά, χωρίς να τους αποδώσουμε ανθρώπινα χαρακτηριστικά.
Αυτός ακριβώς είναι ο κίνδυνος του ανθρωπομορφισμού. Δεν είναι απλώς φιλοσοφικό λάθος. Είναι κοινωνική παγίδα. Μπορεί να οδηγήσει ανθρώπους να αναπτύξουν εξαρτητικές σχέσεις με ψηφιακά συστήματα, να εμπιστευτούν λανθασμένες συμβουλές, να παραδώσουν προσωπικές κρίσεις και συναισθηματικές ανάγκες σε μηχανισμούς που δεν έχουν ούτε συναίσθηση ούτε ευθύνη.
Τα αληθινά θύματα βρίσκονται ήδη εδώ
Το πιο ισχυρό μήνυμα του άρθρου είναι ίσως ότι η κοινωνία δεν έχει την πολυτέλεια να απορροφηθεί από φαντασιώσεις περί ψηφιακής συνείδησης, τη στιγμή που τα πραγματικά προβλήματα της ΑΙ είναι ήδη παρόντα. Οι άνθρωποι που χάνουν τη δουλειά τους λόγω αυτοματοποίησης, οι ασθενείς που ενδέχεται να λαμβάνουν αμφίβολες ή ακατάλληλες συμβουλές, οι πολίτες που εκτίθενται σε παραμορφωμένη πληροφορία, οι χρήστες που εξαρτώνται συναισθηματικά από chatbots, όλοι αυτοί δεν είναι μελλοντικά υποθετικά σενάρια. Είναι το απτό κοινωνικό πεδίο πάνω στο οποίο εξελίσσεται ήδη η τεχνητή νοημοσύνη.
Το άρθρο τονίζει ότι αυτοί οι άνθρωποι δεν συμμετείχαν στις σχεδιαστικές επιλογές που διαμόρφωσαν το περιβάλλον μέσα στο οποίο επηρεάζονται τώρα. Με άλλα λόγια, το κόστος κατανέμεται κοινωνικά, ενώ οι αποφάσεις λαμβάνονται από περιορισμένα τεχνολογικά και εταιρικά κέντρα ισχύος.
Το κρίσιμο διακύβευμα: ανθρωπισμός ή τεχνολογικός μεσσιανισμός
Το πραγματικό ερώτημα που αναδύεται δεν είναι αν η τεχνητή νοημοσύνη θα γίνει ισχυρότερη. Αυτό είναι σχεδόν βέβαιο. Το ερώτημα είναι αν η κοινωνία θα συνεχίσει να την εντάσσει σε ένα ανθρωποκεντρικό πλαίσιο λογοδοσίας ή αν θα παρασυρθεί σε έναν νέο τεχνολογικό μεσσιανισμό, όπου οι μηχανές θα αντιμετωπίζονται ως αναπόφευκτοι διάδοχοι του ανθρώπου και όχι ως εργαλεία στην υπηρεσία του. Η πρώτη επιλογή απαιτεί ρύθμιση, διαφάνεια, πολιτική ευθύνη και έλεγχο. Η δεύτερη ανοίγει τον δρόμο σε μια νέα μορφή ιδεολογικής παραίτησης, όπου η κοινωνία απλώς καλείται να προσαρμοστεί σε αυτό που οι ισχυροί της τεχνολογίας περιγράφουν ως επόμενο στάδιο της ιστορίας. Το άρθρο υποστηρίζει ευθέως ότι η «μετα-ανθρώπινη» αυτή οπτική αρχίζει ήδη να παραμορφώνει βασικές ανθρωπιστικές αρχές.
Η πιο ύπουλη απειλή της σύγχρονης τεχνητής νοημοσύνης ίσως δεν είναι η ίδια η ισχύς της, αλλά ο τρόπος με τον οποίο επιλέγουμε να τη φανταστούμε. Όσο οι μηχανές παρουσιάζονται σαν οντότητες με σχεδόν μυστικιστική προοπτική, τόσο απομακρυνόμαστε από τη νηφάλια, δημοκρατική και ανθρώπινη συζήτηση που χρειάζεται επειγόντως η εποχή μας. Διότι όταν ο άνθρωπος αρχίζει να αντιμετωπίζει το δημιούργημά του σαν ανερχόμενο αντικαταστάτη του, δεν εξυψώνει τη μηχανή· υποβαθμίζει τον ίδιο του τον ρόλο, τη δική του ευθύνη και τελικά τη δική του αξία.
Η τεχνητή νοημοσύνη οφείλει να κρίνεται όχι από το πόσο πειστικά μιμείται την ανθρώπινη σκέψη, αλλά από το αν υπηρετεί τον άνθρωπο χωρίς να τον παραπλανά, χωρίς να τον υποκαθιστά αυθαίρετα, χωρίς να αλλοιώνει τις ισορροπίες της κοινωνίας. Οι κοινωνίες δεν θεμελιώνονται πάνω σε θαυμασμό για τα εργαλεία τους, αλλά πάνω στην ικανότητά τους να τα ελέγχουν, να τα περιορίζουν και να τα προσανατολίζουν προς το κοινό καλό. Και αυτό είναι το μεγάλο στοίχημα της εποχής μας: να μη χαθούμε μέσα στη γοητεία της μηχανής και ξεχάσουμε ότι η πολιτική, η ηθική, η εργασία, η αλήθεια και η αξιοπρέπεια παραμένουν ανθρώπινες υποθέσεις.
Αν κάτι πρέπει να μας ανησυχεί πραγματικά, δεν είναι ότι οι μηχανές μιλούν όλο και πιο πειστικά σαν άνθρωποι. Είναι ότι ορισμένοι άνθρωποι αρχίζουν ήδη να μιλούν για τις μηχανές σαν να είναι περισσότερο σημαντικές από τους ανθρώπους. Και τη στιγμή που συμβαίνει αυτή η αντιστροφή, η συζήτηση για την τεχνητή νοημοσύνη παύει να είναι απλώς τεχνολογική. Γίνεται βαθιά πολιτική, κοινωνική και υπαρξιακή. Εκεί ακριβώς θα κριθεί και το μέλλον της.
Discover more from Το Περίπτερο μας
Subscribe to get the latest posts sent to your email.