Ψευδαισθήσεις Τεχνητής Νοημοσύνης (AI Hallucinations)
🔬 ΕπιστήμηΦαινόμενο κατά το οποίο ένα γλωσσικό μοντέλο παράγει με απόλυτη σιγουριά πληροφορίες που είναι εντελώς ψευδείς — όχι λόγω σφάλματος αλλά ως συστημικό χαρακτηριστικό.
Οι «ψευδαισθήσεις» (hallucinations) στην τεχνητή νοημοσύνη είναι περιπτώσεις όπου ένα γλωσσικό μοντέλο παράγει πληροφορίες που φαίνονται αξιόπιστες αλλά είναι εντελώς κατασκευασμένες. Τυπικά παραδείγματα: ανύπαρκτες επιστημονικές μελέτες με σωστά ονόματα περιοδικών, ψεύτικα ιστορικά γεγονότα, ή βιογραφικά στοιχεία ανθρώπων που δεν υπάρχουν.
Ο όρος δανείζεται από την ψυχιατρική, αλλά η αναλογία έχει όρια: τα μοντέλα δεν «βλέπουν» κάτι που δεν υπάρχει με υποκειμενικό τρόπο — απλά παράγουν κείμενο που δεν αντιστοιχεί στην πραγματικότητα.
Γιατί συμβαίνει
Τρεις βασικοί λόγοι:
- Δεδομένα εκπαίδευσης με λάθη — ό,τι υπάρχει στο διαδίκτυο, σωστό ή λάθος, τροφοδοτεί το μοντέλο.
- Επιβράβευση για πειστικότητα, όχι ειλικρίνεια — κατά την εκπαίδευση, μια σίγουρη απάντηση αξιολογείται συχνά υψηλότερα από ένα «δεν ξέρω».
- Στατιστική φύση — τα μοντέλα προτιμούν να «μαντεύουν» παρά να σωπαίνουν.
Οι ψευδαισθήσεις δεν είναι bug που διορθώνεται εύκολα — είναι ενυπάρχουσα ιδιότητα της αρχιτεκτονικής.