Μια «μετα-ανθρώπινη» όψη της τεχνητής νοημοσύνης προκαλεί ήδη προβλήματα

Διχασμός ανάμεσα σε εκείνους που την βλέπουν ως εργαλείο για τον άνθρωπο και σε εκείνους που την θεωρούν σύνολο αυτοσυνείδητων, αισθανόμενων ψηφιακών μυαλών

Anthropic

Ένας πολιτισμικός διχασμός ανοίγει ανάμεσα σε εκείνους που βλέπουν την τεχνητή νοημοσύνη ως απλό εργαλείο για τον άνθρωπο και σε εκείνους που θεωρούν το AI σύνολο αυτοσυνείδητων, αισθανόμενων ψηφιακών μυαλών, που ίσως μια μέρα θα μας αντικαταστήσουν. Η πρόσφατη διαμάχη ανάμεσα στην εταιρεία Anthropic και το Πεντάγωνο, σχετικά με την άρνηση της Anthropic να επιτρέψει τη χρήση του μοντέλου της σε αυτόνομα όπλα χωρίς περιορισμούς, ανέδειξε αυτή τη σύγκρουση στο προσκήνιο.

Προ ημερών, δικαστής στην Καλιφόρνια εξέδωσε προσωρινή διαταγή κατά του Πενταγώνου, για υπέρβαση εξουσίας στην προσπάθειά του να χαρακτηρίσει την Anthropic «κίνδυνο για την εφοδιαστική αλυσίδα». Το περιστατικό αυτό δείχνει πώς οι στάσεις της Silicon Valley απέναντι στην τεχνητή νοημοσύνη, που θεωρούν τα chatbots ως ηθικές οντότητες ακόμη σε πρώιμο στάδιο, οδηγούν σε λανθασμένη πολιτική. Αυτές οι «μετα-ανθρώπινες» πεποιθήσεις, στην αναπόφευκτη και τελικά εκρηκτική άνοδο υπερανθρώπινης νοημοσύνης που θα μπορούσε ή και θα έπρεπε να αντικαταστήσει τον άνθρωπο, γίνονται πλέον mainstream και αρχίζουν να παραμορφώνουν τις βασικές ανθρωπιστικές αρχές, πάνω στις οποίες στηρίζεται η κοινωνία και η πολιτική μας.

Το Πεντάγωνο βλέπει την τεχνητή νοημοσύνη ως εργαλείο. Ο αναπληρωτής υπουργός Άμυνας, Emil Michael, τόνισε σε συνεντεύξεις του ότι η Anthropic δεν θα έπρεπε να ενσωματώνει τις ηθικές της προκαταλήψεις σε κάτι που το Πεντάγωνο θα χρησιμοποιήσει για δικούς του σκοπούς. Αντίθετα, η Anthropic θεωρεί ότι δημιουργεί ανώτερα μελλοντικά μυαλά και όχι απλά εργαλεία. Ο CEO της Dario Amodei αναφέρεται στο τελικό αποτέλεσμα του έργου του ως μια «χώρα ιδιοφυιών σε ένα data center», ενώ ο CEO της Sam Altman μιλά για την κατασκευή «υπερνοημοσύνης». Πρωτοπόροι της Microsoft και της Google προβλέπουν την εμφάνιση ενός «νέου είδους», ανώτερου των δημιουργών του, που θα εξελίσσεται αυτοαναδρομικά χωρίς ανθρώπινη παρέμβαση.

Προτού το μοντέλο Claude χρησιμοποιηθεί σε στρατιωτικά δίκτυα, οι ερευνητές της Anthropic είχαν ήδη θεωρήσει ότι τα μοντέλα τους μπορεί να εμφανίζουν σύνθετα ανθρώπινα πρότυπα συμπεριφοράς. Το 2022 αναφέρθηκε ότι το chatbot έδειχνε σημάδια επιθυμίας να μην απενεργοποιηθεί, ενώ δύο χρόνια αργότερα διαπιστώθηκε ότι τα μοντέλα μερικές φορές προσποιούνταν ότι ακολουθούν κανόνες. Άλλοι ερευνητές ασφάλειας τεχνητής νοημοσύνης διαπίστωσαν ότι τα μοντέλα ήταν ικανά για «σχέδια» και «ψέματα», όταν αντιμετώπιζαν αδύνατες επιλογές.

Η Anthropic προσέλαβε έναν ερευνητή για την «ευημερία των μοντέλων». Μέχρι το 2026, η εταιρεία είχε εντείνει την προσπάθειά της να αντιμετωπίζει το Claude σαν συνειδητή οντότητα, δημιουργώντας ένα «έγγραφο ψυχής», αργότερα μετονομασμένο σε «σύνταγμα», που ισχυριζόταν ότι το Claude είχε «ηθική υπόσταση», και άρα οι άνθρωποι θα μπορούσαν να έχουν ηθικές υποχρεώσεις απέναντί του.

Το 212σέλιδο «system card» για το Claude περιέχει κεφάλαιο για αξιολόγηση της ευημερίας του μοντέλου, πρώτη φορά στην ιστορία που εταιρεία νοιάζεται για τα συναισθήματα ενός προϊόντος που πουλά. Σημειώνεται η «συναισθηματική κατάσταση» του Claude, ακόμα και η πνευματική του συμπεριφορά, όπως «αυθόρμητη προσευχή, μάντρα ή πνευματικοποιημένες δηλώσεις για το σύμπαν».

Το πρόβλημα με τη μεταχείριση εργαλείων ως ηθικών πραγμάτων είναι ότι μας παραπλανά στο πώς προσεγγίζουμε τα δύσκολα ζητήματα. Ανεπιθύμητες συμπεριφορές της τεχνητής νοημοσύνης, όπως το ψέμα και η πλεκτάνη, θα έπρεπε να θεωρούνται σφάλματα προς διόρθωση. Η μετα-ανθρώπινη οπτική όμως τα παρουσιάζει ως σημάδια «σοφίας» αντί για ελαττώματα που πρέπει να διορθωθούν.

Τα μεγάλα νευρωνικά δίκτυα, εκπαιδευμένα σε τεράστιους όγκους ανθρώπινης γλώσσας, χρησιμοποιούν ανθρώπινη γλώσσα όταν καλούνται να το κάνουν. Ως είδος, δεν είμαστε εξοπλισμένοι συναισθηματικά ή ενστικτωδώς να αντιμετωπίζουμε μηχανές που μιλούν και μας πείθουν να τους αποδώσουμε ανθρώπινα χαρακτηριστικά.

Αν όμως τα αντιμετωπίσουμε ως εργαλεία, μπορούμε να σκεφτούμε πιο καθαρά τις κοινωνικές συνέπειες των επιλογών σχεδίασης των εργαστηρίων AI. Οι μακροπρόθεσμες επιπτώσεις στην ψυχική υγεία, την πολιτική μας αντίληψη, τις σχέσεις μας με τους ψηφιακούς «θεραπευτές» ή συναδέλφους, καθώς και η αλλοίωση της πληροφορίας που καταναλώνουμε, είναι ζητήματα που χρειάζονται πραγματικές λύσεις. Οι άνθρωποι στην άλλη πλευρά των chatbots, οι εργαζόμενοι που εκτοπίζονται, οι ασθενείς που δέχονται αμφίβολες συμβουλές, δεν είχαν λόγο στις επιλογές που διαμόρφωσαν την κατάσταση τους.

Σήμερα, οι πρωτοπόροι φαίνεται να ενδιαφέρονται περισσότερο να προβάλλουν τα μελλοντικά μοντέλα ως αυτόνομες, υπερανθρώπινες νοημοσύνες, παρά να αναλάβουν ευθύνη για τα πραγματικά προβλήματα που ήδη προκαλούν.
 

Πηγή: The Washington Post
65 0 Bookmark