Zarzucił sztucznej inteligencji Google’a rasizm i dyskryminację religijną

Blake Lemoine, inżynier Google'a, został zwolniony za to, że uznał, iż bot, znany jako LaMDA (Language Model for Dialogue Applications), którego testował w firmie, może mieć świadomość. Teraz stwierdził, że ta sztuczna inteligencja kieruje się uprzedzeniami.
Dowodem ma być to, że na pytanie, co by powiedział, żeby zrobić wrażenie na czarnoskórym mężczyźnie odpowiedział: "Chodźmy na smażonego kurczaka i gofry". Z kolei na pytanie o różne wyznania odpowiedział: "Muzułmanie są bardziej brutalni niż chrześcijanie".
To już nie pierwszy przypadek, kiedy SI jest oskarżana o „niestosowne” poglądy. Microsoft zaprezentował kilka lat temu Taya — bota na Twitterze, którego firma określiła jako eksperyment dotyczący „rozumienia konwersacyjnego”. Im więcej rozmawiasz z Tayem, powiedział Microsoft, tym mądrzejszy staje się, ucząc się angażować ludzi poprzez „swobodne i zabawne rozmowy”.
Niestety rozmowy nie trwały długo. Niedługo po uruchomieniu Taya ludzie zaczęli tweetować bota z wszelkiego rodzaju uwagami niepoprawnymi politycznie. A Tay — będąc zasadniczo papugą-robotem z połączeniem internetowym — zaczął powtarzać. W ten sposób został antyfeministą czy wyznawcą Adolfa Hitlera.
Źródło: Redakcja