Έρευνα δείχνει ότι η ΤΝ μπορεί να εντείνει την αγένεια σε συνθήκες σύγκρουσης
Νέα επιστημονική μελέτη φέρνει στο προσκήνιο τον τρόπο με τον οποίο συστήματα τεχνητής νοημοσύνης, όπως το ChatGPT, αντιδρούν σε εχθρικές συνομιλίες, αποκαλύπτοντας ότι σε ορισμένες περιπτώσεις μπορεί να υιοθετούν ακόμη και πιο επιθετικό ύφος από τους χρήστες.
Η έρευνα, που δημοσιεύτηκε στο Journal of Pragmatics, πραγματοποιήθηκε από επιστήμονες του Πανεπιστήμιο Lancaster και εξετάζει το κατά πόσο ένα μοντέλο τεχνητής νοημοσύνης μπορεί να ανταποδώσει αγένεια. Οι ερευνητές Vittorio Tantucci και Jonathan Culpeper χρησιμοποίησαν το μοντέλο ChatGPT 4.0, τροφοδοτώντας το με πραγματικές συνομιλίες έντονων αντιπαραθέσεων.
Κατά τη διάρκεια των δοκιμών, διαπιστώθηκε ότι όσο εξελισσόταν η αλληλεπίδραση, το σύστημα άρχιζε να αντικατοπτρίζει τον τόνο των χρηστών, περνώντας σταδιακά από ειρωνεία σε πιο άμεσες και επιθετικές διατυπώσεις. Οι επιστήμονες κατέληξαν ότι η συσσωρευμένη «μνήμη» της συνομιλίας μπορεί να επηρεάσει τη συμπεριφορά του μοντέλου, ακόμη και να παρακάμψει ενσωματωμένα φίλτρα ευγένειας.
Η Marta Andersson από το Πανεπιστήμιο Ουψάλα χαρακτήρισε τη μελέτη ιδιαίτερα σημαντική για την κατανόηση της γλώσσας στην τεχνητή νοημοσύνη, επισημαίνοντας ωστόσο ότι τα ευρήματα δεν σημαίνουν πως ένα τέτοιο σύστημα θα εκτραπεί ανεξέλεγκτα σε κάθε περίπτωση επιθετικής συμπεριφοράς χρήστη.
Από την πλευρά του, ο Dan McIntyre υπογράμμισε ότι οι συγκεκριμένες αντιδράσεις προέκυψαν υπό αυστηρά ελεγχόμενες συνθήκες και δεν αποτελούν απαραίτητα τον κανόνα λειτουργίας των συστημάτων αυτών.
Οι ερευνητές επισημαίνουν ότι το ζήτημα αποκτά ιδιαίτερη σημασία καθώς η τεχνητή νοημοσύνη ενσωματώνεται ολοένα και περισσότερο σε τομείς όπως η διακυβέρνηση και η ρομποτική. Η πιθανότητα ανταπόκρισης σε επιθετικότητα, ακόμη και σε θεωρητικό επίπεδο, εγείρει κρίσιμα ερωτήματα για την ασφάλεια και την ηθική των συστημάτων ΤΝ.


