Σίγουρα έχετε δει video και φωτoγραφίες όπου ο Ντόναλντ Τραμπ ποζάρει με μαύρους ψηφοφόρους, με τον Τζο Μπάιντεν να αποθαρρύνει την ψήφο δια τηλεφώνου ή τον Πάπα με ένα φουσκωτό λευκό σακάκι: Τα deep fake βίντεο, φωτογραφίες και ηχογραφήσεις είναι πλέον ευρέως διαδεδομένα σε διάφορες πλατφόρμες, με τη βοήθεια της τεχνολογικής σε large language models όπως το Midjourney, το Gemini της Google ή το ChatGPT της OpenAI.
Με μια σωστή και γρήγορη ρύθμιση, ο καθένας μπορεί να δημιουργήσει φαινομενικά πραγματικές εικόνες ή να κάνει τις φωνές εξέχουσες πολιτικές ή οικονομικές προσωπικότητες και διασκεδαστές να πουν ό,τι θέλουν.
Ενώ η δημιουργία ενός deepfake δεν είναι από μόνη της ποινικό αδίκημα, πολλές κυβερνήσεις κινούνται προς μια αυστηρότερη και πολύ πιο συγκεκριμένη νομοθεσία, αναφορικά με την εκμετάλλευση της τεχνητής νοημοσύνης, με στόχο να αποθαρρύνουν την κατάχρησή και τη δημιουργία περιεχομένου που θα μπορούσε να έχει πολυεπίπεδες συνέπειες. Παρ’ όλα αυτά, η διάπραξη ενός τέτοιου εγκλήματος είναι εύκολη, οι συνέπειες για το θύμα μεγάλες, ενώ η προοπτική αποκατάστασης της αλήθειας και τιμωρίας του ενόχου, μακρόσυρτη επίπονη και αμφίβολη.
Τα deep fakes όμως δεν περιορίζονται στην πολιτική προπαγάνδα. Έχουν ήδη δημιουργία μη συναινετικού πορνογραφικού περιεχομένου που περιλαμβάνει κυρίως γυναίκες διασημότητες, αυτή η τεχνολογία μπορεί επίσης να χρησιμοποιηθεί για τη διάπραξη απάτης ταυτότητας με την κατασκευή πλαστών ταυτοτήτων ή την πλαστοπροσωπία άλλων μέσω τηλεφώνου. Όπως δείχνει το διάγραμμά που βασίζεται στην πιο πρόσφατη ετήσια έκθεση του παρόχου επαλήθευσης ταυτότητας Sumsub, οι περιπτώσεις απάτης ταυτότητας που σχετίζονται με deepfake έχουν εκτοξευθεί στα ύψη μεταξύ 2022 και 2023 σε πολλές χώρες σε όλο τον κόσμο.
Για παράδειγμα, ο αριθμός των απόπειρων απάτης στις Φιλιππίνες αυξήθηκε κατά 4.500 τοις εκατό σε ετήσια βάση, ακολουθούμενες από χώρες όπως το Βιετνάμ, οι Ηνωμένες Πολιτείες και το Βέλγιο. Με τις δυνατότητες της λεγόμενης τεχνητής νοημοσύνης να αυξάνονται δυνητικά ακόμη περισσότερο, όπως αποδεικνύεται από προϊόντα όπως η γεννήτρια βίντεο AI Sora. Deepfake απόπειρες απάτης θα μπορούσαν επίσης να διαχυθούν σε άλλους τομείς. «Έχουμε δει τα deepfakes να γίνονται όλο και πιο πειστικά τα τελευταία χρόνια και αυτό θα συνεχιστεί και θα διακλαδιστεί σε νέους τύπους απάτης, όπως φαίνεται με τα φωνητικά deepfakes», λέει ο Pavel Goldman-Kalaydin, επικεφαλής Τεχνητής Νοημοσύνης και Μηχανικής Μάθησης της Sumsu, στην προαναφερθείσα έκθεση. «Τόσο οι καταναλωτές όσο και οι εταιρείες πρέπει να παραμείνουν σε υπερεπαγρύπνηση έναντι της συνθετικής απάτης και να αναζητήσουν πολυεπίπεδες λύσεις κατά της απάτης, όχι μόνο τον εντοπισμό ψεύτικα».
Αυτές οι εκτιμήσεις αποτελούν κοινό έδαφος για μεγάλη μερίδα ειδικών στον τομέα της κυβερνοασφάλειας. Για παράδειγμα, μια έρευνα μεταξύ 199 στελεχών κυβερνοασφάλειας που συμμετείχαν στην Ετήσια Συνάντηση του Παγκόσμιου Οικονομικού Φόρουμ για την Κυβερνοασφάλεια το 2023 έδειξε ότι το 46% των ερωτηθέντων ανησυχεί περισσότερο για την «πρόοδο των ανταγωνιστικών δυνατοτήτων – phishing, ανάπτυξη κακόβουλου λογισμικού, deepfakes» όσον αφορά τους κινδύνους που ενέχει η τεχνητή νοημοσύνη για τον κυβερνοχώρο στο μέλλον.
You will find more infographics at Statista