Ο πόλεμος εναντίων των deepfakes – Πώς μπορούμε να τα ξεχωρίσουμε – Galaksias Portal News
Η Louise Bruder δεν ξεχνά ποτέ ένα πρόσωπο. Μια ικανότητα που δεν είναι χρήσιμη μόνο για τις γνωριμίες στα πάρτι, αλλά την έχει βοηθήσει να κάνει καριέρα στη βρετανική εταιρεία ψηφιακών ταυτοτήτων Yoti, όπου συγκρίνει τη φωτογραφία σε ένα έγγραφο ταυτότητας με μια selfie που έχει αποσταλεί, για να διαπιστώσει αν πρόκειται για το ίδιο άτομο.
Αλλά η Yoti, όπως και άλλες εταιρείες ταυτοποίησης, αντιμετωπίζει μια νέα απειλή – τα deepfakes, ψεύτικες εικόνες οι οποίες δημιουργούνται με τη χρήση λογισμικού τεχνητής νοημοσύνης.
Στη Louise δεν έχει ζητηθεί ακόμη να αξιολογήσει deepfakes στο πλαίσιο της καθημερινής της εργασίας, αλλά η εταιρεία γνωρίζει πολύ καλά την απειλή. Και έτσι, εργάζεται ενεργά πάνω σε τεχνολογία που θα βοηθήσει στον εντοπισμό τους.
Δοκιμάζοντας τις ικανότητές της στο deepfake κουίζ του BBC, η Louise σημείωσε σκορ επτά στα οκτώ. «Υπάρχει μια νεκρότητα στα μάτια των ανθρώπων, που τους κάνει να μη φαίνονται αληθινοί», λέει.
Εξίσου επικίνδυνες και οι φθηνές απομιμήσεις
Ο Ben Colman είναι το αφεντικό της Reality Defender, μιας αμερικανικής εταιρείας που στοχεύει στην παροχή τεχνολογίας για τον εντοπισμό των deepfakes, και πιστεύει ότι η Louise μπορεί σύντομα να δυσκολευτεί να ξεχωρίσει το πραγματικό από το ψεύτικο.
«Θα έλεγα ότι τους τελευταίους εννέα μήνες έχει γίνει σχεδόν αδύνατο ακόμα και για τους καλύτερους ειδικούς να ξεχωρίσουν το πραγματικό, από το προϊόν τεχνητής νοημοσύνης. Χρειαζόμαστε μια λύση λογισμικού για να το κάνουμε αυτό», υποστηρίζει.
Ο Colman κάνει διάκριση μεταξύ των πραγματικά εξελιγμένων deepfakes, τα οποία μπορεί να χρησιμοποιούνται από ένα κράτος για τη δημιουργία παραπληροφόρησης, και αυτού που αποκαλεί «cheapfakes», όπου εγκληματίες χρησιμοποιούν κοινής λήψης λογισμικά τεχνητής νοημοσύνης.
Ανησυχητικά, ακόμη και οι φτηνές απομιμήσεις «εξακολουθούν να είναι αρκετά καλές για να ξεγελάσουν τους ανθρώπους, ιδίως όταν αφορούν φωτογραφίες και ήχο», λέει. Το βίντεο, ωστόσο, «εξακολουθεί να είναι λίγο πιο δύσκολο και απαιτεί πολύ περισσότερους υπολογισμούς».
Η λύση που προσφέρει η εταιρεία του μπορεί να σαρώσει μια εικόνα, ένα βίντεο ή έναν ήχο και να επισημάνει την παρουσία τεχνητής νοημοσύνης. Στους πελάτες της περιλαμβάνονται το ΝΑΤΟ, η κυβέρνηση της Ταϊβάν, οργανισμοί μέσων ενημέρωσης και μεγάλες τράπεζες.
Οι απάτες με κλωνοποίηση φωνής
Αν και είναι τα deepfakes με βίντεο ή φωτογραφία που γίνονται συχνότερα πρωτοσέλιδα, οι απάτες με ήχο αυξάνονται επίσης. Για παράδειγμα, απατεώνες στέλνουν ηχογραφήσεις φωνής χρησιμοποιώντας τη φωνή ενός συγκεκριμένου ατόμου για να πουν πράγματα όπως «Μαμά, έχασα το τηλέφωνό μου, σε παρακαλώ πλήρωσε χρήματα σε αυτόν τον λογαριασμό τώρα».
Η συλλογή αποσπασμάτων φωνής από τον λογαριασμό κάποιου στα μέσα κοινωνικής δικτύωσης ή στο YouTube είναι εύκολη υπόθεση και λίγα δευτερόλεπτα ήχου αρκούν για να κλωνοποιήσουν τη φωνή και να τη χρησιμοποιήσουν για να δημιουργήσουν προτάσεις που το άτομο δεν είπε ποτέ.
Ορισμένα εμπορικά διαθέσιμα λογισμικά επιτρέπουν στους χρήστες ακόμη και να ανεβάσουν τα επίπεδα άγχους σε μια φωνή, μια τεχνική που έχει χρησιμοποιηθεί σε πραγματικές περιπτώσεις, για να κάνουν γονείς να πιστέψουν ότι το παιδί τους έχει απαχθεί.
Αλγόριθμοι εναντίον deepfakes
Ο Siwei Lyu είναι καθηγητής στο Πανεπιστήμιο του Μπάφαλο στις ΗΠΑ, ο οποίος μελετά εδώ και πολλά χρόνια τα deepfakes, με απώτερο στόχο την ανάπτυξη αλγορίθμων που θα βοηθήσουν στον αυτόματο εντοπισμό και την αποκάλυψή τους.
Οι αλγόριθμοι εκπαιδεύονται να εντοπίζουν μικροσκοπικές διαφορές – μάτια που μπορεί να μην κοιτάζουν ακριβώς προς τη σωστή κατεύθυνση ή, στην περίπτωση μιας τεχνητά δημιουργημένης φωνής, την έλλειψη ενδείξεων αναπνοής.
Ο καθηγητής Lyu πιστεύει ότι πρέπει να επιλυθεί το πρόβλημα επειγόντως, προειδοποιώντας ότι οι τηλεδιασκέψεις μπορεί να αποτελέσουν τον επόμενο στόχο των εγκληματιών.
«Στο πολύ κοντινό μέλλον μπορεί να είστε συνδεδεμένοι σε μια κλήση Zoom και να νομίζετε ότι μιλάτε μαζί μου, ενώ στην πραγματικότητα θα μιλάτε με μια εικονική εκδοχή μου. Κάποιος θα μπορούσε να χρησιμοποιήσει την όψη και τη φωνή μου και να δημιουργήσει μια deepfake παρουσία στην κλήση Zoom».
Ο Christopher Doss, ερευνητής στο think tank Rand Corporation, διεξήγαγε πρόσφατα μια μελέτη σχετικά με τα deepfakes, η οποία αποκάλυψε ότι όσο περισσότερο εκτίθενται οι άνθρωποι σε deepfakes, τόσο λιγότερο πιθανό είναι να τα αναγνωρίσουν σωστά.
Κούρσα εξοπλισμών χωρίς αποτέλεσμα
Ο Doss θεωρεί ότι η χρήση εργαλείων τεχνητής νοημοσύνης για την καταπολέμηση της απειλής των προϊόντων τεχνητής νοημοσύνης θα μπορούσε να είναι μια λανθασμένη προσέγγιση.
«Απλά θα δημιουργήσει ένα είδος κούρσας εξοπλισμών μεταξύ εκείνων που προσπαθούν να ανιχνεύσουν τα deepfakes και εκείνων που προσπαθούν να αποφύγουν την ανίχνευση», λέει. «Ο αλγόριθμος θα εντοπίσει μια αδυναμία, και στη συνέχεια οι δημιουργοί θα φροντίσουν να την καλύψουν και να βελτιώσουν λίγο τις μεθόδους τους».
Για τον ίδιο, η σωστή αντιμετώπιση του προβλήματος περιλαμβάνει την εκπαίδευση των ανθρώπων να είναι πιο κριτικοί απέναντι στο περιεχόμενο που καταναλώνουν – να αντιμετωπίζουν τα πάντα με «υγιή σκεπτικισμό», όπως λέει, και να διπλοτσεκάρουν τις πηγές.
Τα παιδιά θα μπορούν να διδάσκονται από μικρή ηλικία για το πώς να εντοπίζουν τα deepfakes. «Η μεγαλύτερη πρόκληση, για την οποία δεν έχω λύση, είναι πώς να διδάξουμε τον ενήλικο γενικό πληθυσμό», λέει.
Ο κ. Colman από την Reality Defender, πιστεύει ότι το βάρος θα πρέπει να πέσει στις εταιρείες για να δημιουργήσουν λύσεις για τον εντοπισμό των deepfakes και όχι στους καταναλωτές. «Η μητέρα μου δεν είναι υπεύθυνη για τον εντοπισμό των ιών στους υπολογιστές, υπάρχει πρόγραμμα antivirus», επισημαίνει. Και με την ίδια λογική, δεν θα πρέπει να είναι υπεύθυνη για τον εντοπισμό των deepfakes.
Αναπαραγωγή άρθου από εδώ