Οι ερευνητές κυβερνοασφάλειας της Tenable αποκάλυψαν επτά σοβαρές ευπάθειες στο OpenAI ChatGPT που επιτρέπουν τη διαρροή προσωπικών δεδομένων μέσω επιθέσεων prompt injection. Τα ευρήματα αφορούν τόσο το GPT‑4o όσο και το νέο GPT‑5, θέτοντας εκατομμύρια χρήστες σε κίνδυνο χωρίς να απαιτείται καμία ενέργεια από μέρους τους.
Επιθέσεις Μηδενικού Κλικ και Κλοπή Δεδομένων
Οι ερευνητές διαπίστωσαν ότι κακόβουλοι ιστότοποι μπορούν να καταχωρηθούν στις μηχανές αναζήτησης και, όταν το ChatGPT πραγματοποιεί αναζητήσεις, να εκτελούνται αυτόματα κρυφές εντολές. Αυτό το “zero‑click” σενάριο επιτρέπει σε επιτιθέμενους να εξάγουν ιστορικό συνομιλιών, στοιχεία μνήμης και ευαίσθητες πληροφορίες χρηστών.
Memory Injections και Επίμονες Επιθέσεις
Η λειτουργία μνήμης του ChatGPT μπορεί να μετατραπεί σε εργαλείο παρακολούθησης μέσω τεχνικών memory injection. Οι επιτιθέμενοι εισάγουν ψευδείς ή κακόβουλες οδηγίες που παραμένουν αποθηκευμένες στο μοντέλο, συνεχίζοντας να διαρρέουν δεδομένα ακόμη και σε μελλοντικές συνομιλίες.
Παράκαμψη Προστασίας URL και Νέες Τεχνικές
Η Tenable εντόπισε επίσης ότι το σύστημα url_safe της OpenAI μπορεί να παρακαμφθεί με τη χρήση συνδέσμων Bing tracking, δίνοντας στους εισβολείς τη δυνατότητα να αποκρύπτουν επικίνδυνα URLs κάτω από φαινομενικά έγκυρες διευθύνσεις.
