
Έντονο ενδιαφέρον έχει προκαλέσει τελευταία η τεχνητή νοημοσύνη και τα ταχέως εξελισσόμενα μοντέλα της, καθώς οι δυνατότητές τους εντείνουν τις ανησυχίες για ζητήματα κυβερνοασφάλειας σε κράτη και εταιρείες. Στο επίκεντρο των συζητήσεων βρίσκεται η εταιρεία Anthropic και το μοντέλο της Mythos. Ο διοικητής της Εθνικής Αρχής Κυβερνοασφάλειας και ερευνητής στο MIT Media Lab, Μιχάλης Μπλέτσας, μίλησε στο EΡΤnews για τα κίνητρα πίσω από τη δημιουργία μοντέλων τεχνητής νοημοσύνης, εάν είναι όντως επικίνδυνα και για τους λόγους που αυτά μας προκαλούν φόβο.
Εξηγώντας τι ακριβώς είναι το μοντέλο Mythos της Anthropic και για ποιο λόγο χαρακτηρίζεται ως επικίνδυνο, ανέφερε “Είναι ένα μοντέλο που μοιάζει πάρα πολύ με το ChatGPT, το οποίο έχει αν ρυθμιστεί στο να βρίσκει ευπάθειες σε λογισμικό.
Η κίνηση της Anthropic είναι περισσότερο μια κίνηση εντυπωσιασμού. Μια κίνηση μάρκετινγκ και βασίζεται λιγότερο στην πραγματικότητα, διότι εκείνο που συνέβη είναι ότι έκαναν κάποιες δοκιμές σε εφαρμογές ανοιχτού κώδικα και το μοντέλο αυτό βρήκε πολλές ευπάθειες. Οπότε και είπαν ότι το μοντέλο αυτό είναι επικίνδυνο”.
Έτσι αποφασίστηκε ότι το μοντέλο αυτό δεν θα διατεθεί σε όλο τον κόσμο, όπως η περίπτωση του ChatGPT, αλλά θα δοθεί σε έναν περιορισμένο αριθμό από δοκιμαστές για να δουν πώς μπορούν να το χρησιμοποιήσουν καλόβουλα. Δηλαδή, για να βρουν κι άλλες ευπάθειες και να τις κλείσουν πριν να τις βρουν οι “κακόβουλοι“. Στην πραγματικότητα βέβαια, όλες τις ευπάθειες που βρήκε το Mythos είχαν βρεθεί πιο πριν από άλλα μοντέλα. “Δεν πρόκειται για κάποιο επαναστατικό μοντέλο”, πρόσθεσε.

Όσον αφορά τους ενδεχόμενους κινδύνους που προκύπτουν από τη χρήση του Mythos, ανέφερε ότι “Ο κίνδυνος υπάρχει με τη χρήση αυτών των μοντέλων, καθώς άνθρωποι οι οποίοι δεν είχαν τις τεχνικές δυνατότητες για να κάνουν μία κυβερνοεπίθεση ή ένα κυβερνοέγκλημα, τώρα έχουν πολύ περισσότερες τεχνικές τεχνικές δυνατότητες. Επομένως βλέπουμε και μία αύξηση στην ποσότητα των επιθέσεων αυτών και κυρίως μία μεγάλη αύξηση στην ταχύτητά τους. Επειδή ακριβώς πολλά από τα συστατικά μίας κυβερνοεπίθεσης μπορούν να αυτοματοποιηθούν από αυτά τα μοντέλα”.
Αναφορικά με το αίτημα της εταιρείας Anthropic στο Υπουργείο Αμύνης, σχετικά με το να μην παίρνουν αποφάσεις ζωής ή θανάτου τα μοντέλα τεχνητής νοημοσύνης και να μη χρησιμοποιούνται για τη μαζική παρακολούθηση Αμερικανών πολιτών, σχολίασε “Είδαμε τι γίνεται με τη στοχοποίηση μέσω τεχνητής νοημοσύνης. Η πιθανότητα λάθους αυξάνεται για τον απλούστατο λόγο ότι ο άνθρωπος που πατάει τη σκανδάλη, δεν έχει το χρόνο να αξιολογήσει, όταν αντί για δέκα στόχους την ώρα παίρνει χίλιους από ένα μοντέλο τεχνητής νοημοσύνης. Επομένως, εκείνο που θα πρέπει να φοβόμαστε πολύ περισσότερο είναι η ανθρώπινη βλακεία, όχι η τεχνητή νοημοσύνη. Η ανθρώπινη βλακεία, η οποία βάζει την τεχνητή νοημοσύνη να παίρνει αποφάσεις τις οποίες δεν μπορεί να πάρει ακόμα”.

Σχετικά με το που βρίσκεται η Ελλάδα σε επίπεδο κυβερνοασφάλειας και αν επιλέγουμε να χρησιμοποιούμε κάποιο μοντέλο τεχνητής νοημοσύνης για την ενίσχυση των συστημάτων μας, είπε “Αρχίζει να μας γίνεται πολύ χρήσιμη σε αυτό που λέμε σύντηξη πληροφοριών (data fusion), δηλαδή όταν παίρνεις πάρα πολλές πληροφορίες από πάρα πολλές πηγές, χρειάζεσαι βοήθεια στο να ταιριάξεις ποια πληροφορία από διαφορετική πηγή έρχεται από το ίδιο γεγονός, έτσι ώστε να καταλάβεις τι γίνεται. Διότι αυτή τη στιγμή παίρνουμε ένα τεράστιο, όλο και αυξανόμενο όγκο πληροφοριών, τον οποίο δεν μπορούμε να αναλύσουμε μόνοι μας. Εκεί πιστεύουμε ότι η τεχνητή νοημοσύνη θα μας βοηθήσει πάρα πολύ”.
www.ertnews.gr
Ακολουθήστε το myvolos.net στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.