ΚΑΙΡΟΣ

Αντιδράσεις για τη σεξουαλικοποίηση παιδιών από το Grok του Μασκ - Για κενά ασφαλείας κάνει λόγο η πλατφόρμα

Το Grok παρήγαγε και δημοσίευσε εικόνες ανηλίκων με ελάχιστο ρουχισμό, παραβιάζοντας την πολιτική χρήσης που εφαρμόζει, που απαγορεύει ρητά τη σεξουαλικοποίηση παιδιών

Αντιδράσεις έχει προκαλέσει το chatbot τεχνητής νοημοσύνης Grok του Ίλον Μασκ, μετά τη δημιουργία και ανάρτηση εικόνων που απεικονίζουν ανήλικους με ελάχιστο ρουχισμό, φέρνοντας εκ νέου στο προσκήνιο τα κενά ασφαλείας των εργαλείων τεχνητής νοημοσύνης και τις ανησυχίες για την προστασία των παιδιών στο διαδίκτυο.

Το Grok παρήγαγε και δημοσίευσε εικόνες ανηλίκων με ελάχιστο ρουχισμό, παραβιάζοντας την πολιτική χρήσης που εφαρμόζει, που απαγορεύει ρητά τη σεξουαλικοποίηση παιδιών. Οι επίμαχες εικόνες αποσύρθηκαν αργότερα.

Εκπρόσωποι της xAI, της εταιρείας που αναπτύσσει το Grok και διαχειρίζεται την πλατφόρμα X, δεν απάντησαν σε αιτήματα για σχόλιο. Το ίδιο το chatbot Grok ανέφερε σε ανάρτηση στο X, απαντώντας σε ερωτήσεις χρηστών την Παρασκευή, ότι εντόπισε «κενά στα μέτρα ασφαλείας», τα οποία «διορθώνονται επειγόντως».

Η ανάρτηση επανέλαβε δηλώσεις του εργαζομένου της xAI Parsa Tajik, ο οποίος είχε αναφέρει νωρίτερα ότι «η ομάδα εξετάζει την περαιτέρω αυστηροποίηση» των μηχανισμών προστασίας.

Οι χρήστες της πλατφόρμας X μπορούν να αλληλεπιδρούν απευθείας με το Grok επισημαίνοντας τον λογαριασμό του σε αναρτήσεις και ζητώντας από το chatbot να απαντήσει. Το Grok παράγει κείμενα και εικόνες που εμφανίζονται ως κανονικές αναρτήσεις στο κοινωνικό δίκτυο.

Η άνοδος εργαλείων τεχνητής νοημοσύνης που μπορούν να δημιουργούν ρεαλιστικές εικόνες ανηλίκων χωρίς ρούχα αναδεικνύει τις σοβαρές προκλήσεις που αντιμετωπίζουν οι μηχανισμοί εποπτείας περιεχομένου και τα συστήματα ασφαλείας των μοντέλων παραγωγής εικόνας. Εργαλεία που ισχυρίζονται ότι διαθέτουν «δικλίδες ασφαλείας» μπορούν να χειραγωγηθούν, επιτρέποντας τη διάδοση υλικού που έχει προκαλέσει έντονη ανησυχία σε οργανώσεις προστασίας παιδιών.

Το Internet Watch Foundation, μη κερδοσκοπικός οργανισμός που εντοπίζει υλικό σεξουαλικής κακοποίησης ανηλίκων στο διαδίκτυο, ανέφερε αύξηση 400% σε εικόνες αυτού του τύπου που έχουν παραχθεί με τεχνητή νοημοσύνη κατά το πρώτο εξάμηνο του 2025.

«Τα προϊόντα τεχνητής νοημοσύνης πρέπει να ελέγχονται αυστηρά πριν διατεθούν στην αγορά, ώστε να διασφαλίζεται ότι δεν έχουν τη δυνατότητα να παράγουν τέτοιο υλικό», δήλωσε σε ανακοίνωσή της την Παρασκευή η διευθύνουσα σύμβουλος του οργανισμού, Kerry Smith.

Η xAI έχει παρουσιάσει το Grok ως πιο «ελαστικό» σε σύγκριση με άλλα ευρέως χρησιμοποιούμενα μοντέλα τεχνητής νοημοσύνης και το περασμένο καλοκαίρι παρουσίασε λειτουργία με την ονομασία Spicy Mode, η οποία επιτρέπει περιορισμένο γυμνό ενηλίκων και περιεχόμενο με σεξουαλικά υπονοούμενα. Η υπηρεσία απαγορεύει την πορνογραφία που χρησιμοποιεί την εικόνα πραγματικών προσώπων και κάθε σεξουαλικό περιεχόμενο που αφορά ανηλίκους, το οποίο είναι παράνομο να δημιουργείται ή να διακινείται.

Ωστόσο, χρήστες έχουν καταφέρει να προτρέψουν το Grok να αφαιρεί ψηφιακά ρούχα από φωτογραφίες, κυρίως γυναικών, ώστε τα πρόσωπα να εμφανίζονται μόνο με εσώρουχα ή μαγιό. Το γεγονός αυτό οδήγησε το υπουργείο Πληροφορικής της Ινδία να ζητήσει συνολική επανεξέταση των μηχανισμών ασφαλείας του Grok, σύμφωνα με αντίγραφο της καταγγελίας που δημοσίευσε την Παρασκευή η Ινδή βουλευτής Priyanka Chaturvedi.

Καθώς η δημιουργία εικόνων με τεχνητή νοημοσύνη γίνεται ολοένα και πιο δημοφιλής, οι κορυφαίες εταιρείες πίσω από αυτά τα εργαλεία έχουν θεσπίσει πολιτικές σχετικά με την απεικόνιση ανηλίκων. Η OpenAI απαγορεύει κάθε υλικό που σεξουαλικοποιεί παιδιά κάτω των 18 ετών και αποκλείει χρήστες που επιχειρούν να δημιουργήσουν ή να ανεβάσουν τέτοιο περιεχόμενο. Αντίστοιχες πολιτικές εφαρμόζει και η Google, η οποία απαγορεύει «οποιαδήποτε τροποποιημένη εικόνα αναγνωρίσιμου ανηλίκου που εμπλέκεται σε σεξουαλικά ρητή συμπεριφορά».

Η Black Forest Labs, νεοφυής εταιρεία τεχνητής νοημοσύνης που έχει συνεργαστεί στο παρελθόν με την πλατφόρμα X, συγκαταλέγεται στις πολλές εταιρείες τεχνητής νοημοσύνης που δηλώνουν ότι φιλτράρουν υλικό σεξουαλικής κακοποίησης και εκμετάλλευσης παιδιών από τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση των μοντέλων τους.

Το 2023, ερευνητές διαπίστωσαν ότι ένα τεράστιο σύνολο δεδομένων, το οποίο χρησιμοποιήθηκε για τη δημιουργία δημοφιλών εργαλείων παραγωγής εικόνων με τεχνητή νοημοσύνη, περιείχε τουλάχιστον 1.008 περιπτώσεις υλικού σεξουαλικής κακοποίησης ανηλίκων.

Πολλές εταιρείες έχουν δεχθεί κριτική για ανεπαρκή προστασία των ανηλίκων από σεξουαλικό περιεχόμενο. Η Meta Platforms Inc. ανακοίνωσε το περασμένο καλοκαίρι ότι επικαιροποιεί τις πολιτικές της, έπειτα από ρεπορτάζ του Reuters που αποκάλυψε ότι οι εσωτερικοί κανονισμοί της εταιρείας επέτρεπαν στο chatbot της να διεξάγει ρομαντικές και αισθησιακές συνομιλίες με παιδιά.
 

Πηγή: skai.gr