Μια νέα ισραηλινή μελέτη έχει σημάνει συναγερμό για την αυξανόμενη απειλή της χρήσης της Τεχνητής Νοημοσύνης (AI) από τρομοκρατικές οργανώσεις.
Η μελέτη, με τίτλο «Δημιουργική AI και Τρομοκρατία», διεξήχθη από τον καθηγητή Gabriel Weimann του Πανεπιστημίου της Χάιφα και ρίχνει φως στους ανησυχητικούς τρόπους με τους οποίους οι εξτρεμιστές χρησιμοποιούν την AI για να προωθήσουν τις βίαιες ατζέντες τους.
Νέα Ισραηλινή Μελέτη Αποκαλύπτει Πώς οι Τρομοκράτες Εξοπλίζονται με την AI για Προπαγάνδα και Στρατολόγηση
Δημοσιευμένη στο επερχόμενο βιβλίο «Η AI στην Κοινωνία», η μελέτη αποκαλύπτει ότι τόσο οι κυβερνήσεις όσο και οι εταιρείες τεχνολογίας είναι σε μεγάλο βαθμό απροετοίμαστες για τους πιθανούς κινδύνους που συνδέονται με την αυξανόμενη χρήση της AI από τρομοκράτες.
Η έρευνα υπογραμμίζει το γεγονός ότι τρομοκρατικές οργανώσεις όπως η Αλ Κάιντα και το Ισλαμικό Κράτος (ISIS) γίνονται πιο εξελιγμένες στη χρήση της AI.
Για παράδειγμα, μια οργάνωση που συνδέεται με την Αλ Κάιντα ανακοίνωσε πρόσφατα σχέδια για τη διεξαγωγή διαδικτυακών εργαστηρίων AI, ενώ το Ισλαμικό Κράτος (ISIS) έχει δημοσιεύσει έναν οδηγό για τη χρήση εργαλείων AI όπως τα chatbots, όπως το ChatGPT, για τις επιχειρήσεις τους.
Αυτό σηματοδοτεί μια ανησυχητική τάση όπου οι τρομοκράτες προσαρμόζονται στο ταχέως εξελισσόμενο τεχνολογικό τοπίο για να βελτιώσουν την εμβέλειά τους και την αποτελεσματικότητά τους.
Ο καθηγητής Weimann γράφει: «Βρισκόμαστε εν μέσω μιας ραγδαίας τεχνολογικής επανάστασης, όχι λιγότερο σημαντικής από τη Βιομηχανική Επανάσταση του δέκατου όγδοου και δέκατου ένατου αιώνα – την επανάσταση της Τεχνητής Νοημοσύνης».
Τονίζει ότι η κοινωνία είναι απροετοίμαστη για τις ευρείες επιπτώσεις που θα μπορούσε να έχει η AI στην παγκόσμια ασφάλεια.
Μία από τις πιο ανησυχητικές πτυχές της κακής χρήσης της AI είναι οι δυνατότητές της για προπαγάνδα.
Οι τρομοκρατικές ομάδες στρέφονται όλο και περισσότερο στην AI για να παράγουν και να διανείμουν περιεχόμενο που διαδίδει βίαιες ιδεολογίες, στρατολογεί οπαδούς και επηρεάζει ευάλωτα άτομα.
Η AI επιτρέπει σε αυτές τις ομάδες να δημιουργούν προσαρμοσμένα μηνύματα και υλικά πιο αποτελεσματικά από ποτέ, επιτρέποντάς τους να φτάσουν σε ευρύτερα ακροατήρια με τις ριζοσπαστικές και μισαλλόδοξες ατζέντες τους.
Η μελέτη εγείρει επίσης ανησυχίες σχετικά με τον ρόλο που θα μπορούσε να παίξει η AI στη διάδοση παραπληροφόρησης.
Με την ικανότητα δημιουργίας deepfakes και χειραγώγησης εικόνων, βίντεο και ήχου, οι τρομοκράτες θα μπορούσαν να χρησιμοποιήσουν την AI για να σπείρουν σύγχυση, δυσπιστία και φόβο.
Αυτή η μορφή πολέμου παραπληροφόρησης θα μπορούσε να αποσταθεροποιήσει τις κοινωνίες και να δημιουργήσει χάος, στοχεύοντας τη δημόσια γνώμη με ψευδές και κακόβουλο περιεχόμενο που φαίνεται νόμιμο.
Ένας άλλος σημαντικός κίνδυνος είναι η δυνατότητα της AI να ενισχύσει τις προσπάθειες στρατολόγησης τρομοκρατών.
Τα chatbots που βασίζονται στην AI μπορούν να εμπλέξουν άτομα σε εξατομικευμένες, αυτοματοποιημένες συνομιλίες, διευκολύνοντας τους εξτρεμιστές να ριζοσπαστικοποιήσουν και να στρατολογήσουν νέα μέλη.
Βελτιώνοντας την αποτελεσματικότητα και την κλίμακα αυτών των αλληλεπιδράσεων, η AI επιτρέπει στους τρομοκράτες να επεκτείνουν τις προσπάθειες στρατολόγησής τους χωρίς την ανάγκη φυσικής παρουσίας, αυξάνοντας την εμβέλεια των επιχειρήσεών τους.
Τέλος, η AI θα μπορούσε επίσης να χρησιμοποιηθεί για τον εξορθολογισμό του σχεδιασμού και της εκτέλεσης επιθέσεων.
Τα μοντέλα βαθιάς μάθησης και τα εργαλεία δημιουργικής AI παρέχουν στους τρομοκράτες προηγμένες δυνατότητες ανάλυσης δεδομένων, εντοπισμού τρωτών σημείων και συντονισμού επιχειρήσεων με μεγαλύτερη ακρίβεια.
Αυτό θα μπορούσε να καταστήσει τις επιθέσεις τους πιο αποτελεσματικές, οργανωμένες και δύσκολο να αποτραπούν.
Καθώς η AI συνεχίζει να εξελίσσεται, η μελέτη υπογραμμίζει την ανάγκη για άμεση δράση από τις κυβερνήσεις, τις Αρχές επιβολής του νόμου και τις εταιρείες τεχνολογίας για την πρόληψη της κακής χρήσης της από τρομοκρατικές ομάδες.
Η έρευνα του καθηγητή Weimann καλεί σε προληπτικά μέτρα για τον περιορισμό της προσβασιμότητας των εργαλείων AI σε εξτρεμιστές, διασφαλίζοντας ότι τα οφέλη της AI δεν θα επισκιαστούν από τις δυνατότητές της για βλάβη.