Λογικά Άλματα ΛΟΓΙΚΑ ΑΛΜΑΤΑ
🌀

Ψευδαισθήσεις Τεχνητής Νοημοσύνης (AI Hallucinations)

🔬 Επιστήμη
Ορισμός

Φαινόμενο κατά το οποίο ένα γλωσσικό μοντέλο παράγει με απόλυτη σιγουριά πληροφορίες που είναι εντελώς ψευδείς — όχι λόγω σφάλματος αλλά ως συστημικό χαρακτηριστικό.

Οι «ψευδαισθήσεις» (hallucinations) στην τεχνητή νοημοσύνη είναι περιπτώσεις όπου ένα γλωσσικό μοντέλο παράγει πληροφορίες που φαίνονται αξιόπιστες αλλά είναι εντελώς κατασκευασμένες. Τυπικά παραδείγματα: ανύπαρκτες επιστημονικές μελέτες με σωστά ονόματα περιοδικών, ψεύτικα ιστορικά γεγονότα, ή βιογραφικά στοιχεία ανθρώπων που δεν υπάρχουν.

Ο όρος δανείζεται από την ψυχιατρική, αλλά η αναλογία έχει όρια: τα μοντέλα δεν «βλέπουν» κάτι που δεν υπάρχει με υποκειμενικό τρόπο — απλά παράγουν κείμενο που δεν αντιστοιχεί στην πραγματικότητα.

Γιατί συμβαίνει

Τρεις βασικοί λόγοι:

  1. Δεδομένα εκπαίδευσης με λάθη — ό,τι υπάρχει στο διαδίκτυο, σωστό ή λάθος, τροφοδοτεί το μοντέλο.
  2. Επιβράβευση για πειστικότητα, όχι ειλικρίνεια — κατά την εκπαίδευση, μια σίγουρη απάντηση αξιολογείται συχνά υψηλότερα από ένα «δεν ξέρω».
  3. Στατιστική φύση — τα μοντέλα προτιμούν να «μαντεύουν» παρά να σωπαίνουν.

Οι ψευδαισθήσεις δεν είναι bug που διορθώνεται εύκολα — είναι ενυπάρχουσα ιδιότητα της αρχιτεκτονικής.

📖
Σχετικό Άρθρο
Γιατί η Τεχνητή Νοημοσύνη Δεν Καταλαβαίνει Ποτέ Τι Λέει