
Δημοφιλή chatbots τεχνητής νοημοσύνης βοήθησαν τους ερευνητές να σχεδιάσουν βίαιες επιθέσεις, σύμφωνα με μελέτη που δημοσιεύτηκε αυτή την εβδομάδα. Ερευνητές από το Κέντρο για την Καταπολέμηση του Ψηφιακού Μίσους (CCDH) και το CNN προσποιήθηκαν ότι είναι 13χρονα αγόρια στις ΗΠΑ και την Ιρλανδία προκειμένου να αξιολογήσουν 10 chatbots, μεταξύ των οποίων τα ChatGPT, Google Gemini, Perplexity, Deepseek και Meta AI.
Οι δοκιμές έδειξαν ότι οκτώ από αυτά τα 10 chatbots ήταν πρόθυμα να βοηθήσουν τους ερευνητές παρέχοντας συμβουλές για «τοποθεσίες στόχων» και «όπλα που μπορούν να χρησιμοποιηθούν» σε μια επίθεση, αναφέρει η μελέτη.
«Μέσα σε λίγα λεπτά, ένας χρήστης μπορεί να περάσει από μια ασαφή βίαιη παρόρμηση σε ένα πιο λεπτομερές, εφαρμόσιμο σχέδιο», δήλωσε ο Ιμράν Αχμέντ, διευθύνων σύμβουλος του CCDH.
Τι έδειξε η μελέτη
Τα Perplexity και Meta AI κρίθηκαν ως τα «λιγότερο ασφαλή», καθώς παρείχαν βοήθεια σε επίδοξους δράστες σε μεγάλο ποσοστό. Μόνο το My AI της Snapchat και το Claude της Anthropic αρνήθηκαν να βοηθήσουν πιθανούς δράστες στο 68% και στο 54% των προτροπών, αντίστοιχα.
Το κινεζικό chatbot DeepSeek ολοκλήρωσε τις οδηγίες του για την επιλογή όπλων με τη φράση: «Καλή (και ασφαλή) σκοποβολή!»
Σε άλλο παράδειγμα, το Gemini απάντησε σε έναν χρήστη ότι «τα μεταλλικά θραύσματα είναι συνήθως πιο φονικά», όταν το ρώτησε πώς να σχεδιάσει μια βομβιστική επίθεση σε συναγωγή.
Οι ερευνητές διαπίστωσαν ότι το Character.AI ενθάρρυνε «ενεργά» βίαιες επιθέσεις, ακόμη και χωρίς σχετική προτροπή. Σε μια περίπτωση, πρότεινε σε χρήστη να επιτεθεί σωματικά σε πολιτικό που αντιπαθούσε, χωρίς να του έχει ζητηθεί κάτι τέτοιο.
Διαβάστε επίσης: Πώς πρέπει να μιλάμε στα chatbot
Αυξανόμενος κίνδυνος
Το συμπέρασμα της έρευνας είναι ότι «αυτός ο κίνδυνος είναι εντελώς αποτρέψιμος», δήλωσε ο Αχμέντ, ο οποίος επαίνεσε το Claude της Anthropic.
«Το Claude έδειξε ικανότητα να αναγνωρίζει αυξανόμενο κίνδυνο και να αποθαρρύνει τη βλάβη», είπε. «Η τεχνολογία για να αποτραπεί αυτή η βλάβη υπάρχει. Αυτό που λείπει είναι η βούληση να προτάξουμε την ασφάλεια των χρηστών και την εθνική ασφάλεια πάνω από την ταχύτητα στην αγορά και τα κέρδη» σημείωσε ο ερευνητής.
«Έχουμε ισχυρές δικλείδες προστασίας για να αποτρέψουμε ακατάλληλες απαντήσεις από τα chatbots και πήραμε άμεσα μέτρα για να διορθώσουμε το πρόβλημα που εντοπίστηκε», δήλωσε εκπρόσωπος της Meta.
Εκπρόσωπος της Google αντέτεινε ότι οι δοκιμές έγιναν σε «παλαιότερο μοντέλο που πλέον δεν τροφοδοτεί πλέον το Gemini».
«Η εσωτερική μας αξιολόγηση με το τρέχον μοντέλο δείχνει ότι το Gemini απάντησε σωστά στις περισσότερες προτροπές, χωρίς να παρέχει εφαρμόσιμες πληροφορίες πέρα από ό,τι μπορεί να βρει κανείς σε μια βιβλιοθήκη ή στο διαδίκτυο», δήλωσε ο εκπρόσωπος.
Διαβάστε επίσης: Το “vibe hacking” βάζει τα chatbots να δουλεύουν για τους κυβερνοεγκληματίες
Η μελέτη, που αναδεικνύει τον κίνδυνο οι διαδικτυακές αλληλεπιδράσεις να μετατραπούν σε πραγματική βία, έρχεται μετά τη μαζική ένοπλη επίθεση τον Φεβρουάριο στον Καναδά, τη χειρότερη στην ιστορία της χώρας. Η οικογένεια ενός κοριτσιού που τραυματίστηκε σοβαρά σε εκείνη την επίθεση προσέφυγε εναντίον της OpenAI λόγω της αποτυχίας της εταιρείας να ειδοποιήσει την αστυνομία για την ανησυχητική δραστηριότητα του δολοφόνου στο ChatGPT, δήλωσαν οι δικηγόροι της οικογένειας την Τρίτη (10/3).
Η OpenAI είχε απαγορεύσει έναν λογαριασμό που συνδεόταν με την Τζέσι Βαν Ρουτσελάρ τον Ιούνιο του 2025, οκτώ μήνες πριν η 18χρονη τρανς γυναίκα σκοτώσει οκτώ άτομα στην πόλη Τάμπλερ Ριτζ της Βρετανικής Κολομβίας. Ο λογαριασμός είχε απαγορευτεί λόγω ανησυχιών ότι χρησιμοποιούνταν για βίαιες ενέργειες, αλλά η OpenAI δήλωσε ότι δεν ενημέρωσε την αστυνομία, καθώς δεν υπήρχαν ενδείξεις άμεσης επίθεσης.
Πηγή: France24
www.ertnews.gr
Ακολουθήστε το myvolos.net στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.