Κυριαρχία deepfake στις απάτες: Έχουν λάβει «βιομηχανικές διαστάσεις», σύμφωνα με ανάλυση

«Οι δυνατότητες έχουν φτάσει ξαφνικά σε τέτοιο επίπεδο που ψεύτικο περιεχόμενο μπορεί να παραχθεί από σχεδόν οποιονδήποτε», λένε οι ειδικοί

Deepfake

Η απάτη μέσω deepfake έχει λάβει «βιομηχανικές» διαστάσεις, σύμφωνα με ανάλυση που δημοσίευσαν ειδικοί στην Τεχνητή Νοημοσύνη (AI).

Όπως αναφέρει η Guardian, τα εργαλεία για τη δημιουργία προσαρμοσμένων, ακόμη και εξατομικευμένων απατών -χρησιμοποιώντας, για παράδειγμα, deepfake βίντεο Σουηδών δημοσιογράφων ή του Προέδρου της Κύπρου- δεν αποτελούν πλέον κάτι εξειδικευμένο, αλλά είναι φθηνά και εύκολα στην εφαρμογή τους σε μεγάλη κλίμακα, αναφέρει η ανάλυση της βάσης δεδομένων AI Incident Database.

Η βάση κατέγραψε περισσότερα από δώδεκα πρόσφατα παραδείγματα «προσωποποίησης για κέρδος», συμπεριλαμβανομένου ενός deepfake βίντεο του πρωθυπουργού της Δυτικής Αυστραλίας, Ρόμπερτ Κουκ, που προωθούσε ένα επενδυτικό σχήμα, καθώς και deepfake γιατρών που διαφήμιζαν κρέμες δέρματος.

Αυτά τα παραδείγματα αποτελούν μέρος μιας τάσης όπου οι απατεώνες χρησιμοποιούν ευρέως διαθέσιμα εργαλεία AI για να πραγματοποιήσουν όλο και πιο στοχευμένες ληστείες. Πέρυσι, ένας οικονομικός υπάλληλος σε μια πολυεθνική εταιρεία στη Σιγκαπούρη κατέβαλε σχεδόν 500.000 δολάρια σε απατεώνες κατά τη διάρκεια αυτού που πίστευε ότι ήταν βιντεοκλήση με την ηγεσία της εταιρείας. Οι Βρετανοί καταναλωτές εκτιμάται ότι έχασαν 9,4 δισεκατομμύρια λίρες από απάτες στο εννεάμηνο έως τον Νοέμβριο του 2025.

«Οι δυνατότητες έχουν φτάσει ξαφνικά σε τέτοιο επίπεδο που ψεύτικο περιεχόμενο μπορεί να παραχθεί από σχεδόν οποιονδήποτε», δήλωσε ο Σάιμον Μάιλιους, ερευνητής του MIT που εργάζεται σε ένα έργο συνδεδεμένο με το AI Incident Database.

Ο ίδιος υπολογίζει ότι οι «απάτες και η στοχευμένη χειραγώγηση» αποτέλεσαν το μεγαλύτερο ποσοστό των περιστατικών που αναφέρθηκαν στη βάση δεδομένων στους 11 από τους τελευταίους 12 μήνες. Όπως είπε: «Έχει γίνει τόσο προσβάσιμο που ουσιαστικά δεν υπάρχει κανένα εμπόδιο εισόδου».

«Η κλίμακα αλλάζει», δήλωσε ο Φρεντ Χάιντινγκ, ερευνητής του Χάρβαρντ που μελετά τις απάτες που βασίζονται στην AI. «Γίνεται τόσο φθηνό που σχεδόν οποιοσδήποτε μπορεί να το χρησιμοποιήσει τώρα. Τα μοντέλα γίνονται πραγματικά καλά — γίνονται πολύ πιο γρήγορα από ό,τι πιστεύουν οι περισσότεροι ειδικοί».

Ο «τέλειος» υποψήφιος

Στις αρχές Ιανουαρίου, ο Τζέισον Ρέμπχολτζ, διευθύνων σύμβουλος της Evoke, μιας εταιρείας ασφάλειας AI, δημοσίευσε μια προσφορά εργασίας στο LinkedIn και αμέσως επικοινώνησε μαζί του ένας άγνωστος από το δίκτυό του, ο οποίος πρότεινε έναν υποψήφιο. Μέσα σε λίγες μέρες, αντάλλασσε email με κάποιον που, στα χαρτιά, φαινόταν να είναι ένας ταλαντούχος μηχανικός.

«Κοίταξα το βιογραφικό και σκέφτηκα ότι είναι πραγματικά καλό. Έτσι, παρόλο που υπήρχαν κάποιες ύποπτες ενδείξεις, αποφάσισα να κάνω μια συζήτηση».

Στη συνέχεια, τα πράγματα έγιναν περίεργα. Τα email του υποψηφίου πήγαιναν απευθείας στα ανεπιθύμητα (spam). Το βιογραφικό του είχε κάποιες ιδιορρυθμίες. Αλλά ο Ρέμπχολτζ είχε αντιμετωπίσει ασυνήθιστους υποψηφίους στο παρελθόν και αποφάσισε να προχωρήσει στη συνέντευξη.

Όταν ο Ρέμπχολτζ ξεκίνησε την κλήση, το βίντεο του υποψηφίου χρειάστηκε σχεδόν ένα λεπτό για να εμφανιστεί.

«Το φόντο ήταν εξαιρετικά ψεύτικο», είπε. «Φαινόταν υπερβολικά ψεύτικο. Και δυσκολευόταν πολύ να διαχειριστεί την περιοχή γύρω από τις άκρες του ατόμου. Ήταν σαν μέρος του σώματός του να εμφανιζόταν και να εξαφανιζόταν... Και μετά, όταν κοίταζα το πρόσωπό του, ήταν πολύ θολό γύρω από τις άκρες».

Ο Ρέμπχολτζ συνέχισε τη συζήτηση, μη θέλοντας να έρθει στη δύσκολη θέση να ρωτήσει ευθέως τον υποψήφιο αν ήταν, στην πραγματικότητα, μια περίπλοκη απάτη. Στη συνέχεια, έστειλε μια ηχογράφηση σε μια επαφή του σε εταιρεία ανίχνευσης deepfake, η οποία του είπε ότι η εικόνα βίντεο του υποψηφίου ήταν παραγόμενη από AI. Απέρριψε τον υποψήφιο.

Ο Ρέμπχολτζ δεν γνωρίζει ακόμη τι ήθελε ο απατεώνας — έναν μισθό μηχανικού ή εμπορικά μυστικά. Ενώ έχουν υπάρξει αναφορές για Βορειοκορεάτες χάκερ που προσπαθούν να πιάσουν δουλειά στην Amazon, η Evoke είναι μια startup, όχι ένας κολοσσός.

«Είναι σαν να λέμε, αν στοχοποιούμαστε εμείς με αυτό, τότε στοχοποιούνται όλοι», είπε ο Ρέμπχολτζ.

Ο Χάιντινγκ δήλωσε ότι τα χειρότερα έπονται. Επί του παρόντος, η τεχνολογία κλωνοποίησης φωνής deepfake είναι εξαιρετική — καθιστώντας εύκολο για τους απατεώνες να υποδυθούν, για παράδειγμα, ένα εγγόνι σε κίνδυνο μέσω τηλεφώνου. Τα deepfake βίντεο, από την άλλη, έχουν ακόμη περιθώρια βελτίωσης.

Αυτό θα μπορούσε να έχει ακραίες συνέπειες: για τις προσλήψεις, για τις εκλογές και για την κοινωνία γενικότερα. Ο Χάιντινγκ πρόσθεσε: «Αυτό θα είναι το μεγάλο σημείο πόνου εδώ, η πλήρης έλλειψη εμπιστοσύνης στους ψηφιακούς θεσμούς, και στους θεσμούς και το υλικό γενικότερα».

Πηγή: skai.gr
70 0 Bookmark