Интернет потребители превърнаха изкуствен интелект на Microsoft в расист

Интернет потребители превърнаха изкуствен интелект на Microsoft в расист

© Mike Segar, Reuters



Microsoft получи доста бърз и вероятно неприятен урок за способностите на интернет потребителите и тяхното влияние върху всичко мрежата, включително и изкуствения интелект. Преди дни софтуерният гигант представи с гордост алгоритъма Tay, който влиза в ролята на 19-годишно американско момиче, но интернет потребители набързо го "обучиха" да разпространява расистки лозунги и фрази.


Tay е т.нар. чатбот. С него потребителите могат да разговарят свободно в класически чат. Алгоритъмът е насочен към младите хора и обучен от чатове на младежи. Добавен е и репертоар от няколко комици, които Microsoft не посочва. Идеята на Tay е да забавлява като дава хумористични отговори и симулира поведението на типично 19-годишно американско момиче. Разбира се, тя не винаги дава смислени отговори, но пък може да се учи от разговорите си и да разгръща своя диапазон от познания.


Изглежда, че инженерите на Microsoft обаче са подценили творчеството и черния хумор на интернет потребителите. Само за няколко часа Tay претърпя пълня промяна в характера и поведението си. Чатботът започна да залива потребителите с расистки лозунги и дори започна да призовава за расова война. Софтуерният гигант спря Tay и обяви, че вече "прави корекции" в алгоритъма.




Източници на онлайн изданието BuzzFeed коментират, че Tay е имала филтри против нецензурни думи, някои жаргонни фрази и т.н., но те не са били достатъчни, когато интернет потребителите са започнали да "заливат" бота с най-различни растистки коментари и реч на омразата. Част от начина, по който Tay работи е, като запомня получените фрази, анализира ги и след това ги използва в други разговори в зависимост от контекста. Така, когато един потребител започне да пише расистки послания, Tay започва да отговаря със същите в опит да поддръжа разговора.


Самият алгоритъм не прави разлика между расизъм и разговор за кулинария например. Интернет потребителите обаче знаят разликата и бързо се възползват от играта "повтаряй след мен", като карат Tay да повтаря техните лозунги. Така алгоритъмът бързо натрупва богат набор от най-различни фрази, които след това повтаря.


Потребителите се възползват и от функцията на Tay да коментира снимките, които й се изпращат, като рисува кръгче около лицето в кадър и добавя коментар. След като потребителите научават, че могат да накарат Tay да каже почти всичко, започва лавина от интернет тролове.


"Tay е проект за обучение на машини, който е създаден за комуникация с хора. Той е колкото социален и културен експеримент, колкото е и технически. За съжалнение, за 24-те часа след пускането на Tay, разбрахме за координирани опити от някои потребители да злоупотребят с уменията на Tay и да я накарат да отговаря по неподходящ начин", обяви компанията пред блога TechCrunch. Компанията допълва, че ботът е спрян докато бъдат направени корекции.


По-късно компанията изтри почти всички публикации на Tay в Twitter.



Всичко, което трябва да знаете за:
С използването на сайта вие приемате, че използваме „бисквитки" за подобряване на преживяването, персонализиране на съдържанието и рекламите, и анализиране на трафика. Вижте нашата политика за бисквитките и декларацията за поверителност. ОK