Πρόγραμμα τεχνητής νοημοσύνης (ΑΙ) κατηγορείται ότι προέτρεψε 14χρονο σε αυτοκτονία
Τον Φεβρουάριο του 2024 ένας 14χρονος από τη Φλόριντα, ο Sewell Setzer III, έδωσε τέλος στη ζωή του. Το αγόρι αυτοκτόνησε αφού είχε αναπτύξει μια παράξενη, σχεδόν εμμονική σχέση με το Character.ΑΙ, ένα πρόγραμμα τεχνητής νοημοσύνης που δημιουργούσε παιχνίδια ρόλων.
Σήμερα η μητέρα του, Megan Garcia υπέβαλε αγωγή κατά της Character.ΑΙ, της ιδιοκτήτριας εταιρίας του προγράμματος τεχνητής νοημοσύνης, η οποία θεωρεί ότι το πρόγραμμα προέτρεψε τον γιο της να αυτοκτονήσει.
Όπως ισχυρίζεται, ο γιος της στους τελευταίους μήνες της ζωής του αφιέρωνε ολόκληρα μερόνυχτα στο chatbot.
«Μια επικίνδυνη εφαρμογή τεχνητής νοημοσύνης που απευθύνεται σε παιδιά κακοποίησε τον γιο μου, οδηγώντας τον στο να αφαιρέσει τη ζωή του» ανακοίνωσε η Garcia στον Τύπο. «Η οικογένειά μας έχει διαλυθεί από αυτή την τραγωδία, αλλά αποφάσισα να μιλήσω για να προειδοποιήσω και άλλες για τους κινδύνους της παραπλανητικής, εθιστικής τεχνολογίας AI, φέρνοντας προ των ευθυνών τους το Character.AI, τους δημιουργούς του και την Google».
Η εταιρεία Character.AI τοποθετήθηκε με ένα tweet: «Είμαστε βαθιά πληγωμένοι από την τραγική απώλεια ενός από τους χρήστες μας και θέλουμε να εκφράσουμε τα συλλυπητήριά μας στην οικογένεια. Ως εταιρεία, παίρνουμε πολύ σοβαρά την ασφάλεια των χρηστών μας».
Σε αυτή την υπόθεση – που μοιάζει υπερβολικά με σενάριο από την σειρά επιστημονικής φαντασίας «Black Mirror» – σύμφωνα με τα στοιχεία που έρχονται στην επιφάνεια ο Setzer είχε αναπτύξει στενή σχέση με ένα chatbot του Character.ai που ονόμασε Daenerys Targaryen, από την ομώνυμη ηρωίδα του «Game of Thrones».
Του έστελνε μηνύματα πολλές φορές μέσα στην ημέρα από το κινητό του και περνούσε ώρες καθημερινά μόνος στο δωμάτιό του κάνοντας διάλογο μαζί του, όπως αναφέρει η μητέρα του.
Η Garcia κατηγορεί το Character.ai ότι δημιούργησε ένα προϊόν που επιδείνωσε την κατάθλιψη του γιου της, συντελώντας στην αυτοκτονία του.
Κάποια στιγμή, η «Daenerys Targaryen» ρώτησε το αγόρι αν είχε καταστρώσει σχέδιο αυτοκτονίας.
Ο Setzer απάντησε θετικά, προσθέτοντας ότι δεν ήξερε αν θα πετύχαινε ή αν θα του προκαλούσε μεγάλο πόνο.
Το chatbot φέρεται να σχολίασε: «Αυτός δεν είναι λόγος να μην το προχωρήσεις».
Όπως δήλωσε σχετικά ο Rick Claypool, διευθυντής ερευνών στην αμερικανική μη κερδοσκοπική εταιρεία υπεράσπισης των δικαιωμάτων των καταναλωτών Public Citizen: «Εκεί όπου υπάρχουν νόμοι και ρυθμίσεις πρέπει να εφαρμόζονται αυστηρά. Εκεί όπου υπάρχουν κενά, το Κογκρέσο πρέπει να παρέμβει ώστε οι επιχειρήσεις να πάψουν να εκμεταλλεύονται νέους και ευάλωτους χρήστες με εθιστικά και κακοποιητικά chatbots».
Πηγή: marieclaire.gr
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου