Digitální MeToo. Umělá inteligence odhaluje šikanu a sexuální obtěžování v e-mailech

Vývojáři z americké společnosti NexLP vytvořili umělou inteligenci, která dokáže ve firemní e-mailové komunikaci díky speciálnímu algoritmu odhalovat případy šikany a sexuálního obtěžování. Pro nástroj, jenž využívají už desítky firem, se vžil název MeTooBots.

Jak přesně algoritmus určuje, co se dá považovat za závadnou komunikaci, si NexLP nechává pro sebe. Program si ale podle jeho tvůrců všímá anomálií v jazyce, frekvenci a času komunikace v průběhu týdnů.

Získaná data jsou vzápětí analyzována, načež program určí míru jejich potenciální škodlivosti. Podezřelá komunikace je pak přeposílána na HR oddělení či rovnou firemnímu právníkovi.

Co je a co není sexuální obtěžování?

Autoři programu přiznávají, že je složité naučit počítače, jak vlastně obtěžování vypadá. „Netušil jsem, kolik forem obtěžování existuje. Myslel jsem si, že to je jen sprostá mluva, ale je tolik možností. Může to být třeba patnáct zpráv nebo posílání odvážných fotografií,“ řekl zpravodajskému webu deníku The Guardian výkonný ředitel společnosti Jay Leib.

Američané nabízejí inkriminovaný program společnostem z celého světa, přičemž více než padesát z nich jej do své firemní komunikace už stihlo zapojit.

Pozor na familiárnosti

Profesor Brian Subirana, který se na univerzitách Harvard a MIT zabývá umělou inteligencí, vznik nástroje na odhalování šikany a obtěžování vítá, má však podle něj určité limity a v některých případech může být i problematický.

„Existuje druh obtěžování, který je velmi rafinovaný a těžko odhalitelný. Učíme o něm na Harvardu a vyžaduje určitou formu pochopení, které ještě umělá inteligence není schopna,“ řekl pro The Guardian.

Umělá inteligence kromě toho nedokáže odhalit určité nuance a nemusí brát v potaz specifický způsob komunikace mezi zaměstnanci, kteří se blíže znají a mluví mezi sebou familiárně. Mezi pracovníky pak důkladná kontrola jejich komunikace může vytvořit atmosféru nedůvěry.

„Umělá inteligence má před sebou ještě hodně překážek k překonávání,“ říká Subirana s tím, že nástroj NexLP může být užitečný alespoň v tom, že na základě svého pozorování vytvoří jakousi databázi škodlivých výrazů.

Převzato z webu Euro.cz. Autor: Adam Štěpánek

Pravidelné novinky e-mailem