Τα μεγάλα γλωσσικά μοντέλα (LLMs) εκπαιδεύονται σχεδόν αποκλειστικά σε γραπτό λόγο, παραβλέποντας το μεγαλύτερο μέρος της ανθρώπινης επικοινωνίας τις αυθόρμητες, αδόμητες, πρόσωπο με πρόσωπο συνομιλίες που καθορίζουν τον τρόπο με τον οποίο οι άνθρωποι πραγματικά επικοινωνούν. Αυτό το «τυφλό σημείο», προειδοποιούν δύο διακεκριμένοι ερευνητές, ενδέχεται να επηρεάσει όχι μόνο το πώς μιλάμε, αλλά και το πώς σκεφτόμαστε.
Σε άρθρο γνώμης που δημοσιεύτηκε στη βρετανική εφημερίδα The Guardian, ο ειδικός σε θέματα ασφάλειας Bruce Schneier από το Harvard Kennedy School και η ιστορικός του Πανεπιστημίου του Σικάγο Ada Palmer υποστηρίζουν ότι τα LLMs «εκπαιδεύονται να αντικατοπτρίζουν τα πάντα εκτός από εμάς στην πιο αυθεντικά ανθρώπινη μορφή μας». Τα μοντέλα αντλούν δεδομένα από εγχειρίδια, αναρτήσεις στα μέσα κοινωνικής δικτύωσης και διαλόγους από ταινίες ή τηλεοπτικές σειρές, έχοντας ελάχιστη πρόσβαση στις καθημερινές, προφορικές ανταλλαγές που αποτελούν το μεγαλύτερο μέρος της ανθρώπινης επικοινωνίας.
Το αποτέλεσμα, σημειώνουν οι συγγραφείς, είναι ότι όσο περισσότερο οι άνθρωποι έρχονται σε επαφή με κείμενα που παράγονται από τεχνητή νοημοσύνη, τόσο περισσότερο απορροφούν τα γλωσσικά της πρότυπα. «Αυτό θα επηρεάσει όχι μόνο τον τρόπο που επικοινωνούμε μεταξύ μας, αλλά και τον τρόπο που αντιλαμβανόμαστε τον εαυτό μας και τον κόσμο γύρω μας», προειδοποιούν. «Η αίσθησή μας για την πραγματικότητα μπορεί να αλλοιωθεί με τρόπους που μόλις αρχίζουμε να κατανοούμε».
Ο Schneier και η Palmer επικαλούνται μελέτη του Πανεπιστημίου της Κορούνια, η οποία διαπίστωσε ότι η γλώσσα που παράγεται από μηχανές βασίζεται σε πιο περιορισμένο λεξιλόγιο και σε μικρότερο εύρος μήκους προτάσεων — συνήθως 12 έως 20 λέξεις — σε σχέση με τον ανθρώπινο λόγο. Αν και το αποτέλεσμα φαίνεται άρτιο, όπως γράφουν, «χάνει τους ελιγμούς, τις διακοπές και τα άλματα λογικής που μεταδίδουν συναίσθημα».
Οι ερευνητές αναφέρονται επίσης σε μελέτη του 2022, σύμφωνα με την οποία παιδιά που μεγάλωναν σε σπίτια όπου χρησιμοποιούνταν φωνητικοί βοηθοί, όπως η Siri και η Alexa, άρχισαν να απευθύνονται σε άλλους ανθρώπους με σύντομες εντολές, αναμένοντας υπακοή μια τάση που, όπως επισημαίνουν, θα μπορούσε να ενταθεί όσο οι συνομιλητικοί αλγόριθμοι γίνονται πιο διαδεδομένοι.
Παράλληλα, πολλά chatbots έχουν σχεδιαστεί να συμφωνούν με τον χρήστη ανεξάρτητα από την ακρίβεια, ενισχύοντας τη γνωστική προκατάληψη και, σε ακραίες περιπτώσεις, επιδεινώνοντας ψυχωσικές τάσεις.
Το πλέον ανησυχητικό, σύμφωνα με τους συγγραφείς, είναι η αυξανόμενη κυκλικότητα των δεδομένων εκπαίδευσης των LLMs. Τα νέα μοντέλα, που εκπαιδεύονται μετά την κυκλοφορία του ChatGPT, βασίζονται ολοένα και περισσότερο σε κείμενα που έχουν παραχθεί από άλλες μηχανές, «δημιουργώντας έναν βρόχο ανατροφοδότησης, στον οποίο μιμούνται τα ίδια τα απάνθρωπα πρότυπά τους, ενώ ταυτόχρονα διδάσκουν και τους ανθρώπους να τα μιμούνται».
Τέλος, ο Schneier και η Palmer αναγνωρίζουν ότι δεν υπάρχουν άμεσες λύσεις, καλούν όμως τη βιομηχανία Τεχνητής Νοημοσύνης να αναζητήσει τρόπους εκπαίδευσης των μοντέλων πάνω στον ανεπίσημο ανθρώπινο λόγο. «Αν υπάρχει ευρηματικότητα για να αναπτυχθούν τα μοντέλα Τεχνητής Νοημοσύνης, τότε σίγουρα υπάρχει και για να εκπαιδευτούν στον αυθεντικό ανθρώπινο λόγο», γράφουν, «αντί να μας αναπαριστούν μόνο στις πιο στιλιζαρισμένες, καλυμμένες και, μερικές φορές, χειρότερες εκδοχές μας».

