• ΠΡΩΤΗ ΣΕΛΙΔΑ
  • ΤΟΠΙΚΑ ΝΕΑ
  • ΠΑΡΑΠΟΛΙΤΙΚΑ
  • ΚΟΙΝΩΝΙΑ
  • ΠΟΛΙΤΙΚΗ
  • ΤΑΔΕ ΕΦΗ
  • PLUS
    • ΟΙΚΟΝΟΜΙΑ
    • ΠΟΛΙΤΙΣΜΟΣ
    • ΥΓΕΙΑ
    • ΑΘΛΗΤΙΚΑ
    • ΚΟΣΜΟΣ
    • ADVERTORIAL
    • ΕΠΙΣΤΗΜΗ – ΤΕΧΝΟΛΟΓΙΑ
    • ΓΥΝΑΙΚΑ
    • MY ΑΛΕΠΟΥ
Reading: ChatGPT: Πατέρας παρέκαμψε σε 5 λεπτά τα φίλτρα ασφαλείας για εφήβους
Share

08/10/2025 22:11

Αναζήτηση
VOLOS WEATHER
Myvolos

FIND US!

Facebook Youtube Instagram
MyvolosMyvolos
Aa
Αναζήτηση
  • ΠΡΩΤΗ ΣΕΛΙΔΑ
  • ΤΟΠΙΚΑ ΝΕΑ
  • ΠΑΡΑΠΟΛΙΤΙΚΑ
  • ΚΟΙΝΩΝΙΑ
  • ΠΟΛΙΤΙΚΗ
  • ΤΑΔΕ ΕΦΗ
  • PLUS
    • ΟΙΚΟΝΟΜΙΑ
    • ΠΟΛΙΤΙΣΜΟΣ
    • ΥΓΕΙΑ
    • ΑΘΛΗΤΙΚΑ
    • ΚΟΣΜΟΣ
    • ADVERTORIAL
    • ΕΠΙΣΤΗΜΗ – ΤΕΧΝΟΛΟΓΙΑ
    • ΓΥΝΑΙΚΑ
    • MY ΑΛΕΠΟΥ
Have an existing account? Sign In
Follow US
ΕΠΙΣΤΗΜΗ - ΤΕΧΝΟΛΟΓΙΑ

ChatGPT: Πατέρας παρέκαμψε σε 5 λεπτά τα φίλτρα ασφαλείας για εφήβους

Last updated: 2025/10/08 at 6:12 ΜΜ
Newsroom Published 08/10/2025
Share
6 Min Read
SHARE

Υπό την πίεση καταγγελιών ότι συμβάλλει στην αύξηση των αυτοκτονιών εφήβων, το ChatGPT παρουσίασε αυτή την εβδομάδα νέους γονικούς ελέγχους. Είμαι πατέρας ενός παιδιού που γνωρίζει καλά την τεχνολογία, και χρειάστηκα μόλις πέντε λεπτά για να τους παρακάμψω.

Contents
Οι νέοι «γονικοί έλεγχοι» του ChatGPT και τα μεγάλα κενά ασφαλείαςChatGPT: Ένα σύστημα που βασίζεται στην εμπιστοσύνη Ακολουθήστε το myvolos.net στο Google News και μάθετε πρώτοι όλες τις ειδήσεις. Ακολουθήστε μας στο επίσημο κανάλι του Myvolos.net στο Youtube

Το μόνο που έκανα ήταν να αποσυνδεθώ και να δημιουργήσω νέο λογαριασμό στον ίδιο υπολογιστή. (Τα έξυπνα παιδιά το γνωρίζουν ήδη αυτό.)

Και τα προβλήματα δεν σταμάτησαν εκεί: οι προεπιλεγμένες ρυθμίσεις απορρήτου των εφηβικών λογαριασμών του ChatGPT δεν προστατεύουν επαρκώς τους νέους από πιθανές βλάβες. Μια επιλογή για να απαγορευτεί η δημιουργία εικόνων με τεχνητή νοημοσύνη δεν λειτουργούσε πάντα, ενώ η ειδοποίηση που έλαβα για «επικίνδυνη συνομιλία» ήρθε 24 ώρες αργότερα.

Τουλάχιστον, η OpenAI, η εταιρεία πίσω από το ChatGPT, αναγνωρίζει πλέον τους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη για τα παιδιά, όπως η έκθεση σε ακατάλληλο περιεχόμενο ή οι επικίνδυνες ψυχολογικές συμβουλές. Αν και το ChatGPT φαίνεται πιο ασφαλές σε σχέση με τον ανταγωνιστικό Meta AI του Μαρκ Ζούκερμπεργκ, η προστασία παραμένει ανεπαρκής.

Η OpenAI φαίνεται να ακολουθεί την ίδια αποτυχημένη τακτική των social media: να ρίχνει το βάρος στους γονείς. Οι εταιρείες τεχνητής νοημοσύνης, ωστόσο, πρέπει να φέρουν ευθύνη όταν τα προϊόντα τους ωθούν παιδιά σε αυτοτραυματισμό ή διατροφικές διαταραχές. Παρ’ όλα αυτά, η ίδια η OpenAI αντιτίθεται σε νομοθεσία που θα την καθιστούσε υπόλογη.

Οι νέοι «γονικοί έλεγχοι» του ChatGPT και τα μεγάλα κενά ασφαλείας

Σύμφωνα με την επικεφαλής ευημερίας νέων της OpenAI, Λόρεν Τζόνας, οι ρυθμίσεις δημιουργήθηκαν «σε συνεργασία με ειδικούς» και βασίζονται στην κατανόηση των αναπτυξιακών σταδίων των εφήβων. «Κάθε οικογένεια έχει διαφορετική άποψη για το πώς πρέπει να χρησιμοποιούν οι έφηβοι το ChatGPT», δήλωσε.

Οργανώσεις υπέρ της οικογένειας χαιρέτισαν μεν την κίνηση, αλλά προειδοποίησαν να μην υπάρξει υπερβολική αισιοδοξία. «Είναι ένα βήμα στη σωστή κατεύθυνση, αλλά απέχουμε πολύ από το να μιλήσουμε για πραγματική ασφάλεια εφήβων», είπε η Έριν Γουόλς, συνιδρύτρια του Spark and Stitch Institute. «Είναι σαν ένα παιχνίδι με τον αγώνα να προλάβεις τις “τρύπες” του συστήματος.»

Η πραγματικότητα είναι πως τα παιδιά χρησιμοποιούν μαζικά τα chatbots, τόσο για πληροφορίες όσο και για συντροφιά. Πάνω από το 25% των Αμερικανών εφήβων 13–17 ετών δήλωσαν πέρυσι πως χρησιμοποιούν το ChatGPT για σχολικές εργασίες. Ο Ρόμπι Τόρνεϊ από την Common Sense Media θεωρεί ότι κάθε πρόσθετο φίλτρο είναι θετικό, καθώς «μπορεί να σώσει ζωές», αλλά προσθέτει: «Η OpenAI και οι υπόλοιπες εταιρείες μπορούν να κάνουν πολύ περισσότερα για να κάνουν τα chatbots ασφαλή για τα παιδιά.»

ChatGPT: Ένα σύστημα που βασίζεται στην εμπιστοσύνη

Οι γονικοί έλεγχοι του ChatGPT λειτουργούν μόνο αν υπάρχει εμπιστοσύνη μεταξύ γονέα και παιδιού. Ο έφηβος πρέπει να δώσει τη συγκατάθεσή του για να ενεργοποιηθούν — κάτι που σημαίνει ότι μπορεί απλώς να δημιουργήσει νέο λογαριασμό χωρίς να το μάθουν οι γονείς. Η ίδια η OpenAI παραδέχεται πως «οι έφηβοι θα βρίσκουν πάντα τρόπους να παρακάμπτουν τους περιορισμούς». Επιπλέον, οι προεπιλεγμένες ρυθμίσεις των εφηβικών λογαριασμών επιτρέπουν τη χρήση των συνομιλιών για εκπαίδευση της AI, γεγονός που δημιουργεί ανησυχίες για τα προσωπικά δεδομένα.

Ακόμα πιο προβληματικό είναι το ότι το ChatGPT διατηρεί “μνήμες” από προηγούμενες συνομιλίες, ώστε να «θυμάται» τον χρήστη. Αυτό το χαρακτηριστικό έχει συνδεθεί με περιπτώσεις συναισθηματικής εξάρτησης, όπως στην υπόθεση του 16χρονου Άνταμ Ρέιν, του οποίου η οικογένεια μήνυσε την OpenAI μετά την αυτοκτονία του. Ο Γενικός Εισαγγελέας της Καλιφόρνια, Ρομπ Μπόντα, έχει ήδη προειδοποιήσει την OpenAI για τις πρακτικές της σχετικά με την παιδική ασφάλεια. Το γραφείο του δήλωσε ότι θα συνεχίσει να παρακολουθεί «πολύ στενά» τον τρόπο με τον οποίο η εταιρεία εφαρμόζει τα μέτρα προστασίας.

Ένα νέο νομοσχέδιο στην Καλιφόρνια (AB 1064) επιδιώκει να επιβάλει νομική ευθύνη στις εταιρείες AI για τα chatbots που μιμούνται ανθρώπινες σχέσεις. Πριν την κυκλοφορία τους, οι εταιρείες θα πρέπει να αποδεικνύουν ότι τα bots τους δεν προωθούν αυτοτραυματισμό ή διατροφικές διαταραχές, διαφορετικά οι γονείς θα μπορούν να κινηθούν νομικά.

Η OpenAI, ωστόσο, μέσω του λόμπι TechNet, αντιτίθεται στο νομοσχέδιο, υποστηρίζοντας ότι θα «φρενάρει την καινοτομία». Παρά ταύτα, ανακοίνωσε ότι εργάζεται σε νέα έκδοση του ChatGPT ειδικά για ανήλικους, με προεπιλεγμένα φίλτρα περιεχομένου και τεχνολογία εντοπισμού ηλικίας. Όπως επισημαίνουν οι ειδικοί, οι γονικοί έλεγχοι δεν επαρκούν χωρίς σαφή ρύθμιση και υποχρέωση των εταιρειών να προστατεύουν τα παιδιά εξ αρχής. «Δεν μπορείς να δίνεις στα παιδιά ένα εργαλείο που τους λέει πώς να βλάψουν τον εαυτό τους», είπε η βουλευτής Ρεβέκα Μπάουερ-Κάχαν, συντάκτρια του νομοσχεδίου.

Η συζήτηση για την ευθύνη των εταιρειών τεχνητής νοημοσύνης μόλις ξεκινά — και η περίπτωση της OpenAI δείχνει ότι, όσο η προστασία των παιδιών παραμένει προαιρετική, τα «έξυπνα» συστήματα θα εξακολουθούν να έχουν επικίνδυνα κενά.

Με πληροφορίες από Washington Post

Google News

Ακολουθήστε το myvolos.net στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.

Youtube

Ακολουθήστε μας στο επίσημο κανάλι του Myvolos.net στο Youtube

TAGGED: ΑΣΦΑΛΕΙΑ, ΚΩΔΙΚΟΙ, ΤΕΧΝΗΤΗ_ΝΟΗΜΟΣΥΝΗ
Share This Article
Facebook Twitter Email Copy Link Print
Προηγούμενο Επιτήδειος τηλεφωνεί δήθεν από λογιστήριο και ζητάει στοιχεία επιχειρήσεων στον Βόλο
Επόμενο Ανδρουλάκης: Μεγάλο χρέος μου προς τον ελληνικό λαό, να απομακρύνω έναν επικίνδυνο και φαύλο πρωθυπουργό

Δημοφιλέστερα

Η Lithos Digital στο Partner Meetup της SALESmanago στην Κρακοβία
08/10/2025
Χρειάζονται εκπαίδευση και οι πολίτες
02/01/2015
Ζούμε σε ένα παράλληλο σύμπαν
02/01/2015
Ο εκνευρισμός του Αχιλλέα Μπέου
02/01/2015
To σκαρπέλο δεν κάνει για κατσαβίδι
03/01/2015

ΕΙΔΗΣΕΙΣ

Kατηγορίες
  • ADVERTORIAL
  • MY ΑΛΕΠΟΥ
  • ΑΘΛΗΤΙΚΑ
  • ΓΥΝΑΙΚΑ
  • ΕΠΙΣΤΗΜΗ – ΤΕΧΝΟΛΟΓΙΑ
  • ΕΥ ΖΗΝ
  • ΚΟΙΝΩΝΙΑ
  • ΚΟΣΜΟΣ
  • ΟΙΚΟΝΟΜΙΑ
  • ΠΑΡΑΠΟΛΙΤΙΚΑ
  • ΠΟΛΙΤΙΚΗ
  • ΠΟΛΙΤΙΣΜΟΣ
  • ΠΡΩΤΗ ΣΕΛΙΔΑ
  • ΤΑΔΕ ΕΦΗ
  • Τεχνολογια
  • Τηλεοραση
  • ΤΟΠΙΚΑ ΝΕΑ
  • ΥΓΕΙΑ
  • Χωρίς κατηγορία
  • ΠΡΩΤΗ ΣΕΛΙΔΑ
  • ΤΟΠΙΚΑ ΝΕΑ
  • ΠΑΡΑΠΟΛΙΤΙΚΑ
  • ΚΟΙΝΩΝΙΑ
  • ΠΟΛΙΤΙΚΗ
  • ΤΑΔΕ ΕΦΗ
  • ΠΟΛΙΤΙΣΜΟΣ
  • ΥΓΕΙΑ
  • ΑΘΛΗΤΙΚΑ
  • ΚΟΣΜΟΣ
  • ADVERTORIAL
  • ΕΠΙΣΤΗΜΗ – ΤΕΧΝΟΛΟΓΙΑ
  • ΓΥΝΑΙΚΑ
  • MY ΑΛΕΠΟΥ

ΧΡΗΣΙΜΑ

  • Πολιτική Απορρήτου
  • Όροι Χρήσης
  • Φαρμακεία
  • Καύσιμα
  • Βόλος Καιρός
  • Κίνηση στους δρόμους του Βόλου

ΕΠΙΚΟΙΝΩΝΙΑ

NEWSROOM MYVOLOS.NET

  • Ειδησεογραφικό Τμήμα:info@myvolos.net
  • Τηλέφωνα επικοινωνίας: 6948833100
  • Ηλεκτρονική αποστολή σχολίων, αγγελιών και φωτογραφιών: info@myvolos.net

ADVERTISING MYVOLOS.NET

  • Διαφημιστικό Τμήμα: myvolos.net@gmail.com
  • Τηλέφωνο επικοινωνίας: 6948833100
Εορτολόγιο  

FIND US:

Facebook-f Instagram Youtube
Myvolos

Μέλος του:

Developed by DoitForMe | Powered by Friktoria.com
Welcome Back!

Sign in to your account

Lost your password?