• Google Scholar
  • Academia
  • Research Gate

«Prebunking» & «ψυχολογικός εμβολιασμός» έναντι deepfakes: «Προληπτικό ξεσκέπασμα» παραπληροφόρησης στο σταυροδρόμι μεταξύ fake news και GenAI

Καθώς αυξάνονται οι μέθοδοι παραπληροφόρησης, Αμερικανοί ερευνητές αναπτύσσουν μια νέα μέθοδο πρόληψης εκείνων των μορφών προπαγάνδας που συνδυάζουν ψεύτικες ειδήσεις με τις δυνατότητες που παρέχουν οι εφαρμογές παραγωγικής τεχνητής νοημοσύνης (GenAI). Η τεχνική του «προληπτικού ξεσκεπάσματος» (“prebunking”) και τα «inoculation videos» του «ψυχολογικού εμβολιασμού». 

Σημερινή της Κυριακής
«”Prebunking” & “ψυχολογικός εμβολιασμός” έναντι deepfakes: “Προληπτικό ξεσκέπασμα” παραπληροφόρησης στο σταυροδρόμι μεταξύ fake news και GenAI»
στήλη: «Άμυνας & Ασφάλειας Αφηγήματα»
06 Αυγούστου 2023
Λάμπρος Γ. Καούλλας

Η ανατολή της εποχής της παραγωγικής τεχνητής νοημοσύνης (“generative AI” ή “GenAI”), με τις δυνατότητες τεχνητής δημιουργίας δεδομένων όπως εικόνες, φωτογραφίες, βίντεο, ήχους, κείμενα και τρισδιάστατα μοντέλα, έρχεται να αναδιαμορφώσει για άλλη μια φορά το διαδικτυακό πληροφοριακό οικοσύστημα στο οποίο αναπτύσσεται και διαχέται η προπαγάνδα. Η μετάβαση από το “fake” στο “deepfake” είναι μια νέα φάση στην εξέλιξη της ψηφιακής προπαγάνδας, αφού πλέον νέα εργαλεία έρχονται να προστεθούν στη φαρέτρα των διαμορφωτών της κοινής γνώμης (βλ. επίσης «Σημερινή Online», 03/03/2021, «Από τα fake news στα deepfake news»). Η σημασία αυτής της εξέλιξης είναι εφάμιλλη – τηρουμένων πάντοτε των αναλογιών – με την έκρηξη των μέσων κοινωνικής δικτύωσης (ΜΚΔ) και μετέπειτα των smartphones. Σε κάθε φάση, αυξάνεται η δυνατότητα και η ταχύτητα δημιουργίας και διασποράς της πληροφορίας.

Συνεπώς, υπάρχει η ανάγκη για εφαρμογή διδαχθέντων μαθημάτων από το πρόσφατο παρελθόν για την αντιμετώπιση των συνακόλουθων κινδύνων. Μία τέτοια προσέγγιση, που έρχεται από τις ΗΠΑ, αναλύει σήμερα η στήλη.

Δύο πρόσφατα παραδείγματα από την εποχή των fake news

Σε ένα ενδιαφέρον άρθρο της στο «The Dispatch» (15/07/2023), με τίτλο «Fake News Meets Artificial Intelligence: As disinformation becomes even more rampant, ‘prebunking’ can help fight back», η Yasmin Green, Διευθύνoυσα Σύμβουλος της Jigsaw, του τμήματος της Alphabet/Google «που εξερευνά τις απειλές στις ανοιχτές κοινωνίες και κτίζει την τεχνολογία που εμπνέει επεκτάσιμες λύσεις», αναφέρεται σε δύο πρόσφατα παραδείγματα παραπληροφόρησης, που επηρέασαν τις αμερικανικές προεδρικές εκλογές το 2016, αλλά και γενικότερα τον αμερικανικό δημόσιο διάλογο.

Η μια περίπτωση ήταν αυτή της μικρής βορειομακεδονικής πόλης Βελισσού (Βέλες), όπου πολλοί, κυρίως έφηβοι και νεαροί ενήλικες, κέρδιζαν τα προς το ζην (υπολογίζεται μέχρι και $1.000 μηνιαίως) διασπείροντας fake news με περιεχόμενο που αντέγραφαν απ’ εδώ και απ’ εκεί και τίτλους που προκαλούσαν διχασμό και οργή, καταφέρνοντας έτσι υψηλή επισκεψιμότητα.

Η άλλη περίπτωση ήταν η γνωστή ως “Internet Research Agency”, που αναφέρεται ότι δημιουργούσε «φάρμες τρολλς» (“troll farms”) και φέρεται να σχετίζεται με τον γνωστό Ρώσο επιχειρηματία Yevgeny Prigozhin, το όνομα του οποίου ήταν πρόσφατα στην επικαιρότητα λόγω των δραστηριοτήτων της Wagner στην Ουκρανία. Η Y. Green αναφέρει πως η ομάδα της Jigsaw ήταν από τις πρώτες που αναγνώρισαν τη διεξαγωγή αυτών των ρωσικών πληροφοριακών επιχειρήσεων.

Χαρακτηριστικά πληροφοριακών επιχειρήσεων στο Διαδίκτυο

Η Y. Green γράφει ότι εντόπισαν από την αρχή τρεις πτυχές των δραστηριοτήτων της “Internet Research Agency”: (α) Αυτοί οι λογαριασμοί τρολλ ακολουθούσαν (follow) ο ένας τον άλλον· (β) το περιεχόμενο των αναρτήσεών τους ήταν εντυπωσιακά παρόμοιο, ακόμη και πανομοιότυπο μερικές φορές· και (γ) όλοι δημοσίευαν τις ίδιες ώρες, περίπου από τις 9:00 π.μ. έως τις 5:00 μ.μ., ώρα Μόσχας.

«Γι’ αυτούς, τελικά, ήταν απλώς εργασία. Αυτές οι τρεις ιδιότητες – σχεσιακή ομοιότητα (relational similarity), σημασιολογική ομοιότητα (semantic similarity) και χρονική ομοιότητα (temporal similarity), μεταξύ άλλων – χρησιμοποιήθηκαν στη συνέχεια για να εντοπιστούν oι πολλαπλές συγκεκαλυμμένες επιχειρήσεις επιρροής (covert influence operations), επιτρέποντες έτσι στις πλατφόρμες (όπως την Google) να αναπτύξουν εξελιγμένα συστήματα, με αποτέλεσμα να διακόψουν τη δράση τέτοιων ομάδων, τις οποίες προσπάθησαν να χειραγωγήσουν το 2016 για οικονομικό όφελος».

GenAI στο παιχνίδι των πληροφοριακών επιχειρήσεων

Η είσοδος της παραγωγικής τεχνητής νοημοσύνης (generative AI) παρέχει πλέον τη δυνατότητα στον οποιονδήποτε να λάβει μέρος στο «παιχνίδι» των πληροφοριακών επιχειρήσεων, αφού το κόστος εκμηδενίζεται.

Παράλληλα με κρατικούς δρώντες και κερδοσκόπους διακινητές ψευδών ειδήσεων, τόσο οι πλατφόρμες, όπως η Google, όσο και τα μεμονωμένα άτομα που αναζητούν αξιόπιστες πληροφορίες θα πρέπει πλέον να αντιμετωπίσουν πολλούς νέους παίκτες, με διαφορετικά κίνητρα ο καθένας.

«Για τους παραδοσιακούς, κρατικά-υποστηριζόμενους προπαγανδιστές, η παραγωγική τεχνητή νοημοσύνη προσφέρει τεράστια κέρδη αποτελεσματικότητας, όχι μόνο για περισσότερες εκστρατείες, αλλά πιθανόν και για πιο στοχευμένες, αφού η δημιουργία παραπληροφόρησης με σκοπό να προσελκύσει εξειδικευμένες (niche) ομάδες καθίσταται πιο οικονομική», αναφέρει η Y. Green.

Τεχνικές αντιμετώπισης AI παραπληροφόρησης

«Τα καλά νέα είναι ότι η άφιξη αυτής της νέας γενιάς τεχνολογιών παραγωγικής τεχνητής νοημοσύνης προκάλεσε ένα κύμα επενδύσεων σε αυτές όπως και τη δημιουργία νέων συνεργασιών μεταξύ του ευρύτερου κλάδου και της κοινωνίας των πολιτών, για την αντιμετώπιση των διαφαινόμενων κινδύνων», συνεχίζει η Y. Green.

Ως παραδείγματα ελέγχου αναφέρει την υδατογράφηση (watermarking) του περιεχομένου που δημιουργείται από εφαρμογές τεχνητής νοημοσύνης και την επαλήθευση της ταυτότητας του προσώπου-χρήστη και εξηγεί πως με αυτά τα χαρακτηριστικά μπορεί να εντοπιστεί μια στοχευμένη εκστρατεία από μια πλατφόρμα και έτσι να περιοριστεί η πολιτική χειραγώγηση του περιεχομένου που δημιουργείται.

Αλλά και αυτές οι προτάσεις, όπως εξηγεί, δεν μπορούν να σταματήσουν τελείως τη διασπορά παραπληροφόρησης κατασκευασμένης από τεχνητή νοημοσύνη. Συνεπώς, και αφού υπάρχει έλλειψη ολοκληρωμένων τεχνικών εφαρμογών προστασίας, είναι σημαντικό για τις κυβερνήσεις, τις διαδικτυακές πλατφόρμες, τους ερευνητές και την κοινωνία των πολιτών να δώσουν στους ίδιους τους ανθρώπους τα εφόδια και τις ικανότητες να προσδιορίζουν το όποιο περιεχόμενο που δημιουργήθηκε με σκοπό τη χειραγώγησή τους.

Η μέθοδος “Prebunking” & τα «βίντεο εμβολιασμού πληροφόρησης»

Η Yasmin Green προτείνει μια νέα τεχνική που ονομάζεται “prebunking”, η οποία στα ελληνικά θα μπορούσε να αποδοθεί ελεύθερα ως «προληπτικό ξεσκέπασμα».

Τα τελευταία πέντε χρόνια, σε συνεργασία με πανεπιστήμια στις ΗΠΑ και την Ευρώπη, η ομάδα της στην Jigsaw, όπως αναφέρει, αναπτύσσουν αυτή την μέθοδο με βάση το έργο του κοινωνικού ψυχολόγου William McGuire της δεκαετίας του 1960. Το prebunking, γράφει, «έχει ως στόχο να βοηθήσει τους ανθρώπους να αναγνωρίζουν και να διαψεύδουν το περιεχόμενο χειραγώγησης προτού να αντιμετωπίσουν τους ίδιους τους παραπλανητικούς ισχυρισμούς. Το prebunking απαιτεί έναν απλό τύπο: μια προειδοποίηση για μελλοντικές απόπειρες χειραγώγησης, μια μικροδόση της χειραγώγησης (microdose of the manipulation), και μια διεξοδική εξήγηση του πώς λειτουργεί αυτή η στρατηγική χειραγώγησης.»

Έρευνα της ομάδας τους, που χρηματοδοτήθηκε κυρίως από την Google Jigsaw (με επιμέρους χρηματοδότηση των ερευνητών από φορείς όπως η Βρετανική Ακαδημία και το βρετανικό Economic & Social Research Council, η IRIS Coalition της βρετανικής κυβέρνησης, το πρόγραμμα JITSUVAX του EU Horizon 2020, το European Research Council, το Humboldt Foundation, το Volkswagen Foundation και το Gates Cambridge Scholarship) και που δημοσιεύθηκε στο επιστημονικό περιοδικό «Science Advances» (2022), υπέδειξε ότι η πιο πάνω απλή διατύπωση θα μπορούσε να εφαρμοστεί και στο Διαδίκτυο: το 73% των ατόμων που παρακολούθησαν ένα βίντεο «προληπτικού ξεσκεπάσμος» ήταν πιο πιθανό να εντοπίζουν παραπλανητικές δηλώσεις. Επίσης, βίντεο «προληπτικού ξεσκεπάσματος» που προβάλλονται ως μικρά διαφημιστικά στο YouTube (τα οποία χαρακτήρισαν ως “inoculation videos”, δηλαδή «βίντεο εμβολιασμού» με πληροφόρηση) αύξησαν την αναγνώριση τεχνικών χειραγώγησης κατά 5%.

Στην ερώτηση «τι είναι η θεωρία εμβολιασμού;», η ιστοσελίδα του προγράμματος Inoculation.Science του Cambridge Social Decision-Making Lab του Τμήματος Ψυχολογίας του Πανεπιστημίου της Κανταβριγίας (Κέιμπριτζ) απαντά: «Όπως τα ιατρικά εμβόλια παρέχουν αντίσταση σε μελλοντική μόλυνση, έτσι και οι ψυχολογικοί εμβολιασμοί κτίζουν αντίσταση έναντι μελλοντικής χειραγώγησης».

Δοκιμή του «prebunking» σε Κεντρική και Ανατολική Ευρώπη

Η μέθοδος του «προληπτικού ξεσκεπάσματος» (“prebunking”) ίσως προσφέρει πλεονεκτήματα στον περιορισμό της βλάβης που δημιουργούν συγκεκαλυμμένες επιχειρήσεις επιρροής στον νέο κόσμο της παραγωγικής τεχνητής νοημοσύνης.

«Οι κρατικοί φορείς, συμπεριλαμβανομένης της Ρωσίας και του Ιράν, θα αναζητήσουν ευκαιρίες να χρησιμοποιήσουν την καινοτομία στη δημιουργία περιεχομένου για να σπείρουν διχόνοια μεταξύ ξένων πληθυσμών. Οι συγκεκριμένες ρητορικές τακτικές που χρησιμοποιούν – μεταξύ αυτών ο αποδιοπομπαίος τράγος (scapegoating), η διασπορά του φόβου (fear mongering) ή το whataboutism («ναι, αλλά για εκείνο γιατί δεν λένε;..») – έχουν από καιρό αναπτυχθεί ως πληροφοριακές επιχειρήσεις και θα επανεμφανίζονται διαρκώς. Η διευκόλυνση των ανθρώπων στο να εντοπίζουν τις συνηθισμένες αυτές μεθόδους χειραγώγησης μπορεί να τους βοηθήσει να αποφύγουν να γίνονται θύματα αυτών των τακτικών, ανεξαρτήτως από τους όποιους επιμέρους ισχυρισμούς», αναφέρει η Y. Green.

Το πρώτο πιλοτικό πρόγραμμα της Jigsaw για εφαρμογή του «prebunking», που υλοποιήθηκε μαζί με εταίρους της στην Κεντρική και Ανατολική Ευρώπη, αποδείχθηκε, σύμφωνα με το «The Dispatch», πολλά υποσχόμενο ως αποτελεσματικό εργαλείο σε μεγάλους πληθυσμούς. «Επιλέξαμε το πλαίσιο της Κεντρικής και Ανατολικής Ευρώπης ως έναν τρόπο για να ξεφύγουμε από αυτό που αναμέναμε, που ήταν ότι η Ρωσία θα προσπαθήσει μετά την εισβολή να δαιμονοποιήσει τους Ουκρανούς πρόσφυγες ενόψει κρίσιμων εκλογών, παρόμοιο με αυτό που είχαν κάνει οι Ρώσοι όταν εκμεταλλεύτηκαν την προσφυγική κρίση με τους πρόσφυγες το 2015», εξηγεί η Y. Green το σκεπτικό πίσω από τους λόγους επιλογής των συγκεκριμένων χωρών.

«Προληπτικά» βίντεο σε YouTube, Facebook, Twitter & TikTok

Για τη διεξαγωγή της καμπάνιας, η ομάδα ανάπτυξε σύντομα βίντεο που έκαναν «προληπτικό ξεσκέπασμα» της «οπλοποίησης των προσφύγων» που διέφευγαν από τον πόλεμο στην Ουκρανία. Η εκστρατεία με τα βίντεο έτρεξε σε YouTube, Facebook, Twitter και TikTok, και η προσπάθεια «prebunking» κατάφερε να αγγίξει πάνω από το μισό του συνολικού πληθυσμού που βρίσκεται online σε Πολωνία, Τσεχία και Σλοβακία.

«Το ένα από τα βίντεο επικεντρώθηκε σε απόπειρες παρουσίασης των Ουκρανών προσφύγων ως αποδιοπομπαίων τράγων και στον κίνδυνο για αύξηση του κόστους ζωής, ενώ το άλλο υπογράμμιζε την πρόκληση φόβου για την υποτιθέμενη βίαιη και επικίνδυνη φύση των Ουκρανών προσφύγων», γράφει η Y. Green και υπογραμμίζει: «Διαπιστώσαμε ότι η μερίδα των θεατών που θα μπορούσαν να προσδιορίσουν σωστά αυτές τις παραπλανητικές τακτικές αυξήθηκε έως και 8% μετά την προβολή έστω και ενός από αυτά τα βίντεο – ένας τεράστιος αριθμός στο πλαίσιο της διαφήμισης».

Ανθεκτικότητα & προαπαιτούμενα για «prebunking»

«Το νόημα του ‘‘prebunking’’ ήταν πάντα η ενίσχυση της ανθεκτικότητας (resilience) έναντι τακτικών χειραγώγησης, αλλά κανένας δεν είχε βρει τον τρόπο να το κάνει σε μεγάλη κλίμακα, μέχρι στιγμής. Ωστόσο, όπως απέδειξαν οι πρώτες μας πιλοτικές δοκιμές, η προσπάθεια δεν είναι χωρίς έξοδα και πρέπει να πραγματοποιηθεί έχοντας ισχυρούς, αξιόπιστους τοπικούς εταίρους που γνωρίζουν το τοπικό πλαίσιο και που μπορούν να στηρίξουν μια μακροπρόθεσμη εκστρατεία. Το μοντέλο, ωστόσο, λειτουργεί, και το να το μεγαλώσεις φέρνοντας σε επαφή τον ιδιωτικό τομέα με τις δεξαμενές σκέψης, τις εταιρείες μέσων ενημέρωσης και άλλους χρηματοδότες μόνο να βοηθήσει μπορεί», καταλήγει η Y. Green.

Κλείνοντας το άρθρο της, υπογραμμίζει πως το «prebunking» δεν μπορεί να περιορίσει συγκεκαλυμμένες επιχειρήσεις επιρροής, που πλέον ενισχύονται και από GenAI, από μόνο του, αλλά θα είναι πιο αποτελεσματικό ως μέρος μιας συνολικής, μεγαλύτερης και πιο ολοκληρωμένης στρατηγικής.

Το ρωσικό AI-βίντεο που περιγελά τις Δυτικές κυρώσεις

Η έλευση της deepfake εποχής, με τη χρήση τεχνητής νοημοσύνης, την οποία παρατηρούσαμε να έρχεται πριν από δύο χρόνια («Σημερινή» Online, 03/03/2021, «Από τα fake news στα deepfake news»), είναι πλέον γεγονός.

Στις 14 Ιουνίου 2023, το ρωσικό κρατικό «RT» κυκλοφόρησε ένα σατιρικό deepfake βίντεο, δημιουργημένο με τεχνητή νοημοσύνη, με στόχο να κοροϊδέψει τους Ευρωπαίους, Βρετανούς και Αμερικανούς ηγέτες για τις προσπάθειές τους να συμφωνήσουν σε έναν νέο γύρο κυρώσεων κατά της Ρωσίας. Το βίντεο αναδημοσίευσαν ρωσικές πρεσβείες στην Ευρώπη και παραμένει διαθέσιμο στον επίσημο λογαριασμό του «RT» στο Twitter (@RT_com), αλλά μετά δυσκολίας προσπελάσιμο από παροχείς σε ΕΕ.

Στο YouTube (ιδιοκτησίας Google), το βίντεο το βρίσκει πλέον κάποιος μόνο σε κάποια μικρά σατιρικά κανάλια, μέχρι να διαγραφεί κι από αυτά, κυκλοφορεί όμως μέσω άλλων εναλλακτικών πλατφόρμων που αναδύονται τα τελευταία χρόνια.

Παρά τους πιο πάνω περιορισμούς που ισχύουν μετά τον πόλεμο στην Ουκρανία στη διασπορά διεθνών ειδήσεων από τα ρωσικά κρατικά μέσα, εντούτοις το συγκεκριμένο βίντεο, λόγω του ότι κέντριζε το ενδιαφέρον, ήταν σατιρικό και επαγγελματικά δημιουργημένο, κατάφερε διά της ίντριγκας να φτάσει σε δυτικά ακροατήρια, αφού λόγω του περιεχομένου του θεωρήθηκε άξιο να προβληθεί ως ενδιαφέρουσα είδηση.

Έτσι, με τη μέθοδο της αναδημοσίευσης και της αναπαραγωγής, η ρωσική διπλωματία πέτυχε να διεισδύσει σε δυτικά ακροατήρια, μεταφέροντας την πληροφοριακή σύγκρουση εκτός έδρας. Είχε, για παράδειγμα, γίνει εκτενής αναφορά στους βρετανικούς «Times» (15/06/2023) με τον τίτλο «Russia deepfake video mocks Rishi Sunak and Joe Biden» και στην ιστοσελίδα του, ισραηλινών συμφερόντων, ινστιτούτου Middle East Media Research Institute, κάτω από την επικεφαλίδα «Russia Today Tweets AI-Generated Video Mocking Western Leaders and Sanctions against Russia» (MEMRI TV, 26/06/2023). Στο τελευταίο, μέχρι τις 31/07/2023 ήταν ακόμη διαθέσιμο στο επίσημο κανάλι τους στο YouTube, ως ειδησεογραφική αναπαραγωγή. Την 01/08/2023 διαγράφηκε, μαζί με όλο το κανάλι, με την αιτιολογία: «This account has been terminated because we received multiple third-party claims of copyright infringement regarding material the user posted».

* Διευθυντής EEC, Πανεπιστήμιο Λεμεσού