imagazin arrow2-left arrow2-right arrow2-top arrow-up arrow-down arrow-left arrow-right cart close dossiers education fb instagram menu notification oander rss rss-footer search service shuffle speech-bubble star store stores tests twitter youtube

Budoucnost je tady!

Apple představil iPhone X

gender

Mají algoritmy předsudky?


Tato otázka vyplula na povrch ve spojitosti s Google Translate. Kdo může za to, když je počítač rasistický, sexistický nebo xenofobní?

Automatické překlady vyvolávají několik problémů, například gramatické pohlaví. Jaké pohlaví bychom měli používat při překládání frází, pokud zdrojový jazyk gramatické pohlaví nepoužívá? Obsah sice může lidskému překladateli napovědět, nicméně překladatelské programy založené na algoritmech se musí rozhodovat na základě předem naprogramovaných pojmů.

google translate

Nedávno se objevil problém u programu Google Translate, jelikož překládal respektovanější povolání (jako doktor nebo inženýr) a pozitivnější lidské vlastnosti (jako štěstí, pracovitost) mužskými zájmeny, zatímco povolání považována za podřadnější (jako zdravotní pracovník nebo učitel) a negativní lidské vlastnosti (smutek nebo lenost) ženskými zájmeny. Podle lidí se jedná o další prohlubování genderových předsudků.

Program pracuje na základě statistik. Ty získává z milionů prozkoumaných knih, webových stránek a oficiálních dokumentů a vyhledávání vzorů.

gender

Pokud je fráze často v různých překladech přeložena se stejným pohlavím, pak překlad navrhne tuto možnost častěji. Genderové nerovnosti v překladech jsou pak výsledkem jejich existence ve skutečném světě.

Otázkou tedy je, co očekáváme od změny takovýchto pracovních nástrojů, jelikož v reálném světě jsou tyto stereotypy stále hojně rozšířené.

Na problém upozornily dva tweety, které poukazují na to, jakým způsobem Google Translate přiřazuje rod neutrálním zájmenům. Alex Shams na Twitteru poznamenal, že turecké zájmeno „o“ je genderově neutrální, přesto ho program překládá jako „on“, nebo „ona“.

Druhý tweet potvrzuje, že nejde pouze o turečtinu. Taika Dahlbom nechala přeložit finské genderově neutrální slovo „hän“ a překladač ho opět přeložil jako „on“.

Snaha odstranit genderové nerovnosti z naší společnosti je nepochybně důležitá. Otázkou ovšem je, jakým způsobem bychom toho měli docílit. Modifikace algoritmů bude mít za následek akorát nesmyslné chyby a ohýbání reálné situace.

Odstranění genderových předsudků z Google Translate nevyřeší problémy společnosti. A co je horší, mohlo by akorát vytvořit iluzi, že žádný takový problém vůbec neexistuje, což může být daleko škodlivější, než překládání gramatických pohlaví.

Zdroj: Mashable

Beoplay
Apple Inc. (AAPL)

Tohle už jste četli?

Nový systém se zaměřuje především na dvě oblasti: na uživatelský zážitek a na výkon. Z pohledu výkonu staví na novém frameworku Metal, který Apple již dříve přinesl na iOS. Metal kombinuje schopnosti technologií OpenGl a OpenCL do jednoho prvku.

Klikněte zde!