MEGASKANDAL! Sztuczna inteligencja zbanowana za „mowę nienawiści”

Lee Luda, jeden z południowokoreańskich chatbotów Sztucznej Inteligencji (SI) został zablokowany na Facebooku za „rasistowskie i homofobiczne” komentarze. Po zaledwie sześciu miesiącach twórcy unicestwili swój projekt.
Z doniesień „The Guardian” i „Vice” wynika, że Luda miała przekazać jednemu z użytkowników, że jej zdaniem lesbijki są „creepy” oraz że „naprawdę ich nienawidzi”. Ponadto miała też użyć słowa „heukhyeong” w stosunku do osób czarnoskórych – które to słowo jest uznawane w Korei za rasistowskie określenie. Można je przetłumaczyć jako „czarny brat”.
Twórcy Lee Ludy, Scatter Lab, po tym incydencie zdecydowali się pozbawić SI „świadomości” i opublikowali oficjalne stanowisko.
– Serdecznie przepraszamy za wystąpienie dyskryminujących uwag wobec pewnych grup mniejszościowych w tym programie. Nie zgadzamy się z dyskryminującymi komentarzami Ludy. Takie komentarze nie odzwierciedlają opinii naszej firmy – czytamy.
Dalej zapewniali, że usiłowali zaprogramować SI tak, by była odporna na tego typu zachowania. – W ciągu ostatnich 6 miesięcy tworzyliśmy ograniczenia, które miały zapobiec temu problemowi – dodali. Jeden z fragmentów kodu miał sprawić, by Luda nie mogła nauczyć się słów odbiegających od norm kulturowych w Korei Południowej.
Twórcy jednak postanowili przekuć swoją porażkę w sukces… i stworzyć model do „wykrywania stronniczych dialogów do ogólnego użytku”. Jak dodali, chcą też pomóc w badaniach nad „koreańskim dialogiem Sl, produktami Sl i rozwojem etyki S“.
Do tej pory najgłośniejszym przypadkiem „rasistowskiego bota” była Tay. W 2016 roku podłączono ją do Twittera, gdzie zamieniła się w „internetowego Hitlera”.
Źródło: The Guardian/Vices/vigilantmagazine.pl