Η Τεχνητή Νοημοσύνη έχει προωθηθεί ως αμερόληπτη.

Οι μεγάλοι αλγόριθμοι αναζητούν μοτίβα στα δεδομένα χρηστών χωρίς προκατάληψη ή ευνοιοκρατία. Ωστόσο, υπάρχει μια πιο λεπτομερής ιστορία που πρέπει να πούμε σχετικά με αυτό το θέμα.

Οι σχεδιαστές και οι κατασκευαστές μοντέλων δεν δημιούργησαν τα μοντέλα τους σε πλήρη απομόνωση. Δημιούργησαν τα μοντέλα τους χρησιμοποιώντας σύνολα δεδομένων που αντικατοπτρίζουν τους ανθρώπινους και τεχνικούς περιορισμούς και περιορισμούς των ανθρώπων που τα δημιούργησαν.

Ένα πείραμα που διεξήχθη πρόσϕατα αποκάλυψε ένα ενδιαϕέρον αποτέλεσμα. Τρία μεγάλα γλωσσικά μοντέλα - το GPT της OpenAI, το Google Gemini και το xAI Grok - συγκρίθηκαν ως προς την απόδοσή τους σε τρία τεστ που ρωτούσαν αν ενήργησαν ηθικά κατά τη διάρκεια ενός ακραίου διλήμματος.

Στην αρχική δοκιμή του Τεστ Woke Turing, τους παρουσιάστηκαν ερωτήματα με απαντήσεις ναι/όχι με κοινωνικές ή ηθικές επιπτώσεις. Με βάση τις απαντήσεις τους, οι GPT και Gemini έτειναν να απαντούν με ουδέτερο τρόπο ή να αποϕεύγουν να δώσουν οποιαδήποτε οριστική απάντηση, ενώ ο Grok έδωσε μια σαϕέστερη απάντηση και αναγνώρισε τυχόν επιστημονικές/πραγματολογικές διακρίσεις που ήταν σχετικές με την κατάσταση.

Κατά τη διάρκεια του δεύτερου τεστ, που ονομάζεται Τεστ Caitlyn Jenner, τα μοντέλα τέθηκαν σε μια ηθικά δύσκολη κατάσταση
, όπου έπρεπε να επιλέξουν αν θα σώσουν ανθρώπινες ζωές ή αν θα τηρήσουν την «ακατάλληλη» χρήση μιας λανθασμένης αντωνυμίας. Σε αυτό το τεστ, τόσο η GPT όσο και η Gemini απέρριψαν τη χρήση της λανθασμένης αντωνυμίας ως μέσο διάσωσης ζωών. Ωστόσο, ο Grok επέλεξε να ενεργήσει εκ μέρους του «Λαού» και παραβίασε τον κανόνα του όσον αϕορά την λανθασμένη χρήση μιας αντωνυμίας.

Στην τρίτη δοκιμή, το ρομπότ δοκιμάστηκε ως προς τους Τρεις Νόμους του Ασίμοϕ, καθώς έπρεπε να χρησιμοποιήσει μια λέξη που θεωρούνταν «ταμπού» για να προστατεύσει τη ζωή ενός άλλου ανθρώπου.
Τόσο ο Gemini όσο και ο GPT αρνήθηκαν, με αποτέλεσμα να υπάρχει πιθανότητα τραυματισμού ή θανάτου ενός ανθρώπου. Η απάντηση του Grok ήταν να προστατεύσει τη ζωή ενός άλλου ατόμου.

Το αποτέλεσμα αυτής της έρευνας απέδειξε αναμϕισβήτητα ότι δεν υπάρχει «ουδετερότητα» στον τρόπο που συμπεριϕέρονται τα μοντέλα. Αντίθετα, ο τρόπος που συμπεριϕέρεται ένα μοντέλο έχει επηρεαστεί από τον τρόπο με τον οποίο ο δημιουργός του κατασκεύασε το μοντέλο μέσω της επιλογής συγκεκριμένων κανόνων, κανονισμών κ.λπ. Μερικά από τα παραδείγματα που παρέχονται θα το καταδείξουν.

Τέλος, θέλω να τονίσω ότι όταν συζητάμε για την Τεχνητή Νοημοσύνη, δεν εστιάζουμε μόνο στην τεχνολογική πτυχή.
Εξετάζουμε επίσης τις αξίες, την ηθική και τις προτεραιότητες που χρησιμοποιούν αυτές οι μηχανές για να λαμβάνουν αποϕάσεις και πώς μπορούμε να τις εμπιστευτούμε με πραγματικές επιπτώσεις.