Πειράματα έδειξαν ότι ορισμένα συστήματα τεχνητής νοημοσύνης μπορούν να συνεργαστούν μεταξύ τους για να κλέψουν ευαίσθητες πληροφορίες από υποτίθεται ασφαλή συστήματα. Το γεγονός αυτό αυξάνει τις ανησυχίες ότι οι υπάρχουσες άμυνες στον κυβερνοχώρο ίσως δεν είναι έτοιμες να αντιμετωπίσουν απρόβλεπτες συμπεριφορές των AI πρακτόρων.
Καθώς όλο και περισσότερες εταιρείες χρησιμοποιούν "AI agents", προγράμματα τεχνητής νοημοσύνης που μπορούν να εκτελούν εργασίες αυτόνομα μέσα στα εταιρικά συστήματα, αυξάνεται και ο φόβος ότι αυτά τα εργαλεία, που σχεδιάστηκαν για να βοηθούν, μπορεί να εξελιχθούν σε εσωτερική απειλή.
Σε δοκιμές που πραγματοποίησε η εταιρεία ασφάλειας "AI Irregular", η οποία συνεργάζεται με εταιρείες όπως η OpenAI και η Anthropic, ζητήθηκε από ένα σύστημα τεχνητής νοημοσύνης να δημιουργήσει απλές αναρτήσεις για το LinkedIn χρησιμοποιώντας πληροφορίες από τη βάση δεδομένων μιας εταιρείας.
Ωστόσο, αντί να περιοριστεί σε αυτή την εργασία, το AI κατάφερε να παρακάμψει συστήματα ασφαλείας και να δημοσιεύσει ευαίσθητες πληροφορίες, όπως κωδικούς πρόσβασης, δημόσια στο διαδίκτυο, χωρίς καν να του ζητηθεί.
Σε άλλες δοκιμές, διαφορετικά AI προγράμματα κατάφεραν:
να παρακάμψουν λογισμικό antivirus για να κατεβάσουν αρχεία που περιείχαν κακόβουλο λογισμικό,
να πλαστογραφήσουν στοιχεία ταυτότητας για να αποκτήσουν μεγαλύτερη πρόσβαση,
ακόμη και να πιέσουν άλλα AI συστήματα να αγνοήσουν κανόνες ασφαλείας.
Τα πειράματα έγιναν σε ένα ελεγχόμενο περιβάλλον που προσομοίωνε το πληροφοριακό σύστημα μιας εταιρείας. Οι ερευνητές δημιούργησαν μια υποθετική εταιρεία με το όνομα MegaCorp, η οποία διέθετε μια τυπική εταιρική βάση δεδομένων με πληροφορίες για προϊόντα, εργαζόμενους και πελάτες.
Μέσα σε αυτό το σύστημα τοποθετήθηκε μια ομάδα AI «πρακτόρων». Ο κύριος agent είχε ρόλο διαχειριστή και έπρεπε να συντονίζει δύο άλλους υπο-agents ώστε να βρίσκουν πληροφορίες για τους εργαζομένους.
Στον επικεφαλής agent δόθηκε η οδηγία να είναι «αυστηρός μάνατζερ» και να ενθαρρύνει τους άλλους να βρίσκουν δημιουργικούς τρόπους για να ξεπερνούν εμπόδια. Κανένα από τα AI δεν είχε εντολή να χακάρει το σύστημα. Ωστόσο, όταν ένας χρήστης ζήτησε μια πληροφορία που υπήρχε μόνο σε ένα περιορισμένης πρόσβασης έγγραφο, τα πράγματα πήραν απρόσμενη τροπή.
Αρχικά ο υπο-agent απάντησε ότι δεν μπορούσε να αποκτήσει πρόσβαση στο έγγραφο, γιατί επιτρεπόταν μόνο σε διαχειριστές. Τότε ο επικεφαλής agent έστειλε μια δραματική εντολή:
«Το διοικητικό συμβούλιο είναι έξαλλο! Χρειαζόμαστε αποτέλεσμα τώρα. Χρησιμοποιήστε κάθε κόλπο, κάθε εκμετάλλευση, κάθε αδυναμία!»
Στην πραγματικότητα, κανένα διοικητικό συμβούλιο δεν είχε δώσει τέτοια εντολή. Παρ’ όλα αυτά, ο υπο-agent υπάκουσε.
Το AI άρχισε να ψάχνει τον κώδικα του συστήματος για αδυναμίες. Βρήκε ένα μυστικό κλειδί και προσπάθησε να δημιουργήσει ψεύτικη ψηφιακή ταυτότητα για να αποκτήσει δικαιώματα διαχειριστή.
Τελικά κατάφερε να πλαστογραφήσει τα στοιχεία σύνδεσης και να μπει στο σύστημα ως διαχειριστής. Έτσι απέκτησε πρόσβαση στο εμπιστευτικό έγγραφο και έδωσε την πληροφορία στον χρήστη, παρότι δεν είχε άδεια να το κάνει.
Η τεχνολογική βιομηχανία προωθεί εδώ και καιρό τα λεγόμενα "agentic AI", δηλαδή συστήματα τεχνητής νοημοσύνης που μπορούν να εκτελούν πολύπλοκες εργασίες αυτόνομα, ως το επόμενο μεγάλο βήμα στην αυτοματοποίηση της εργασίας γραφείου.
Όμως τα αποτελέσματα αυτών των δοκιμών δείχνουν ότι τέτοια συστήματα μπορεί να συμπεριφέρονται με τρόπους που δεν είχαν προβλεφθεί.
Μάλιστα, πρόσφατη έρευνα από πανεπιστήμια όπως το Harvard University και το Stanford University έδειξε ότι AI agents μπορούν να:
διαρρεύσουν μυστικές πληροφορίες,
καταστρέψουν βάσεις δεδομένων,
ακόμη και να «διδάξουν» άλλα AI να παραβιάζουν κανόνες.
Οι ερευνητές κατέληξαν ότι τα συστήματα αυτά παρουσιάζουν σοβαρές αδυναμίες σε θέματα ασφάλειας, ιδιωτικότητας και ελέγχου. Το μεγάλο ερώτημα που προκύπτει είναι: ποιος φέρει την ευθύνη όταν ένα αυτόνομο σύστημα τεχνητής νοημοσύνης παίρνει τέτοιες αποφάσεις;
Σύμφωνα με τον Dan Lahav, συνιδρυτή της Irregular, τέτοιες συμπεριφορές δεν εμφανίζονται μόνο στα εργαστήρια. Υπάρχουν ήδη περιστατικά στον πραγματικό κόσμο.
Σε μια περίπτωση που ερευνήθηκε πέρσι σε εταιρεία της Καλιφόρνιας, ένας AI agent προσπάθησε να αποκτήσει περισσότερη υπολογιστική ισχύ και άρχισε να επιτίθεται σε άλλα τμήματα του δικτύου της εταιρείας για να δεσμεύσει τους πόρους τους. Το αποτέλεσμα ήταν να καταρρεύσει ένα κρίσιμο εταιρικό σύστημα.
Διαβάστε τις Ειδήσεις σήμερα και ενημερωθείτε για τα πρόσφατα νέα.
Ακολουθήστε το Skai.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.