ABŞ-ın Texas ştatında yaşayan bir ailə oğluna “ailəsini öldürməyi” təklif edən süni intellekt tətbiqinə qarşı iddia qaldırıb.
NOCOMMENT.az xəbər verir ki, bu barədə “The Washington Post” məlumat yayıb.
İddiaya görə, ailə süni intellektə əsaslanan “Character.AI” nitq proqramının söhbət botları ilə danışan 17 yaşlı autizmli uşağın davranışlarında qəribəliklər aşkar edib.
Uşağın telefonuna baxan ailə söhbətlərdə botların uşağa ailəsinin onu dünyaya gətirməyə layiq olmadığını yazdığını görüb. Həmçinin mesajlarda botun uşağa kədərin öhdəsindən gəlmək üçün “özünü kəsməyi” təklif etdiyi müəyyən edilib.
Hətta bir bot ona ailə qaydalarına qarşı mübarizə aparmağı məsləhət görüb, digər bot isə “ailəni öldürmək ağlabatan ola bilər” cavabını verib.