Του Νικόλα Κατσαούνη*

Στο YouTube κυκλοφορούν διάφορα video στα οποία ο αυτόματος πιλότος των αυτοκινήτων tesla προβλέπει μία επικείμενη σύγκρουση μεταξύ προπορευόμενων οχημάτων και αποσυνδέεται, προκειμένου να αναλάβει ο οδηγός, πριν η *πιθανότητα* ότι επίκειται σύγκρουση γίνει αντιληπτή από τον οδηγό. Με άλλα λόγια, το σύστημα τεχνητής νοημοσύνης (Αrtificial Intelligence - A.I.)  του αυτόματου πιλότου προβλέπει την σύγκρουση προσμετρώντας παράγοντες πριν αυτοί μπουν στο ανθρώπινο πεδίο αντίληψης. 

Αντιστοίχως, στην ιατρική, μία εφαρμογή τεχνητής νοημοσύνης είναι η διάγνωση καρκίνων. Έχει προκύψει ότι συστήματα τεχνητής νοημοσύνης είναι πιο αποτελεσματικά στην “ανάγνωση” μαγνητικών, και ότι μπορούν να διακρίνουν καρκίνους που έμπειροι γιατροί δεν μπορούν. Αυτό δεν έχει να κάνει με θέματα ανάλυσης η μεγέθυνσης. Έχει να κάνει με το ότι το ΑΙ βλέπει patterns που οι γιατροί δεν μπορούν να δουν. 

Πριν κάποια χρόνια, η google εκπαίδευσε το AlphaGo, έναν υπολογιστή που έμαθε να παίζει το κινέζικο παιχνίδι Go. To Go, όπως τα περισσοτερα πράγματα που στηρίζονται στην κινεζική φιλοσοφία, δεν είναι ένα παιχνίδι στο οποίο έχουν σημασία τόσο οι διαδοχικές κινήσεις, όπως στο σκάκι, αλλά η συνολική ροή του παιχνιδιού. Δεν είναι δηλαδή ένα παιχνίδι στηριγμένο σε “states” αλλά σε “flows.” Υπολογιστικά, είναι απείρως πιο σύνθετο από το σκάκι, και συνεπως ο υπολογιστής πρέπει να “μάθει” να το παίζει, δεν μπορεί να υπολογίζει όλες τις διαδοχικές κινήσεις. Ο alphaGo κατέληξε να νικήσει τον παγκόσμιο πρωταθλητή του παιχνιδιού 4 προς 1. 

Το πιο ενδιαφέρον όμως είναι ο τρόπος που κέρδισε τα παιχνίδια. Ο υπολογιστής έκανε κινήσεις οι οποίες δεν θα είχαν καμία λογική για τον ανθρώπινο παίκτη, κι έμοιαζαν σχεδόν τυχαίες. Όμως, συνολικά (το παιχνίδι έχει να κάνει με την ροή) είχαν την δική τους εσωτερική λογική, και παράλογες κινήσεις εμφάνιζαν μια συνέπεια αργότερα στο παιχνίδι. Όπως στην διάγνωση μαγνητικών, έτσι και στο παιχνίδι το ΑΙ ανέπτυξε έναν δικό του τρόπο “σκέψης.”

Η τεχνητή νοημοσύνη λοιπόν μας δίνει εργαλεία που βελτιώνουν την ζωή μας. Υπάρχουν όμως και κάποια προβλήματα. 

Ανάμεσα στην ανθρώπινη σκέψη και την δράση μεσολαβεί ο προβληματισμός. Ο προβληματισμό αυτός είναι η ηθική κρίση. Και η ηθική -ή η απουσία της- επιτρέπει ή αποτρέπει ορισμένες δράσεις σύμφωνα με λίγο πολύ κοινά αποφασισμένες αρχές. Στην καρδιά της πολιτικής θεωρίας, ή της φιλοσοφίας, πάντα παραμονεύει το ερώτημα τι είναι ηθικό, και τι συνιστά ηθική. Υπό αυτή την έννοια οι άνθρωποι έχουν εξελιχθεί να είναι ηθικά όντα, και συνεπώς και πολιτικά: έννοιες όπως δικαιοσύνη, συνεργασία και άλλες πολλές έχει αποδειχθεί ότι είναι σύμφυτες με την ανθρώπινη φύση τις έχουμε από όταν γεννιόμαστε. 

Τι συμβαίνει όταν σχεδιάζουμε συστήματα τα οποία αναπτύσσουν δική τους λογική και ξεπερνούν την ανθρώπινη αντίληψη; 

Σκεφτείτε το εξής παράδειγμα. Ένας διοικητής πολεμικού πλοίου ξαφνικά βλέπει μία προειδοποίηση στην οθόνη του, που του λέει: σύμφωνα με τους υπολογισμούς μου αν σε πέντε λεπτά δεν κάνεις το Χ, το πλοίο αυτό θα δεχθεί επίθεση. Το παράδειγμα δεν διαφέρει πολύ από τα παραπάνω: ο υπολογιστής τον προειδοποιεί ότι αντιλαμβάνεται κάτι που ο ίδιος ακόμα δεν αναγνωρίζει. Το Χ μπορεί να είναι ό,τι χωράει ο νους του ανθρώπου: ο υπολογιστής δεν έχει ηθική. Συνδέει πρόβλεψη με δράση για το βέλτιστο αποτέλεσμα με τα ενδιάμεσα βήματα να είναι ηθικά αδιάφορα. Το πρόβλημα γίνεται ακόμα πιο περίπλοκο όταν ο υπολογιστής διαβάζει κινήσεις άλλων συστημάτων τα οποία είναι υπό ανθρώπινο έλεγχο. 

Σε αυτό το σενάριο προστίθεται και το σενάριο του Artificial Generalized Intelligence, το οποίο δεν έχουμε δημιουργήσει ακόμα. Το A.G.I, ένα σύστημα γενικής τεχνητής νοημοσύνης εξετάζει εκατομμύρια παραμέτρους και βγάζει συμπεράσματα, συσχετίζοντας παραμέτρους που ο άνθρωπος δεν φαντάζεται ότι συσχετίζονται, σε συχνότητα πολύ μεγαλύτερη από αυτήν που μπορεί να καταφέρει η ανθρωπότητα συνολικά. Για να γίνει αντιληπτή η λειτουργία του, μπορεί κανείς να εξετάσει ένα παράδειγμα σε μικρότερη κλίμακα: μία κινεζική τράπεζα χρησιμοποιεί ένα σύστημα τεχνητής νοημοσύνης για να δει ποιοί είναι καλοί δανειολήπτες. Το σύστημα ανακάλυψε ότι υπάρχει συσχετισμός ανάμεσα στο πόσο συχνά και σε τι ποσοστό είναι φορτισμένη η μπαταρία του κινητού ενός δανειστή με την συνέπειά του να πληρώνει τα χρέη του εμπρόθεσμα. 

Ένα τέτοιο σύστημα μπορεί να είναι δώρο στην επιστήμη, π.χ. μπορεί να συσχετίζει κλιματικές συνθήκες ή κοινωνικά αποτελέσματα με τρόπους που δεν θα ήταν ποτέ εμφανείς σε ανθρώπους, όπως ο AlphaGo. Μπορεί όμως να είναι κι ένα οπλο μαζικής καταστροφής ανάλογα με την χρήση που του κάνει η εκάστοτε κυβέρνηση (αυτά τα συστήματα σίγουρα θα είναι υπό κυβερνητικό έλεγχο λόγω της ισχύος τους.) 

Ανάμεσα σε αυτά υπάρχουν και άλλα πιο καθημερινά παραδείγματα τα οποία εγείρουν εξίσου σοβαρά ηθικά διλήμματα. Πώς επηρεάζεται η ψυχολογική ανάπτυξη και κοινωνικοποίηση ενός παιδιού όταν θα μπορεί να μιλάει με ένα σύστημα τεχνητής νοημοσύνης (υπάρχουν ήδη συστήματα που μπορούν να κάνουν πειστικό διάλογο). Πώς επηρεάζεται η ψυχολογία και η κοινωνικοποίηση ενός ενήλικα;

Λέγεται ότι η τεχνητή νοημοσύνη είναι ανάλογη της αλλαγής στην ανθρώπινη σχέση που έφερε η Αναγέννηση. Σύντομα θα είναι κοντά μας. 

Ο Νικόλας Κατσαούνης είναι απόφοιτος της σχολής διεθνών σχέσεων του Πανεπιστημίου Columbia της Νέας Υόρκης. Τα τελευταία 10 χρόνια, δουλεύει στον χώρο της πολιτικής ανάλυσης,  των media και της επικοινωνίας.