Із 2018 року у Twitter працює алгоритм, який автоматично підлаштовує великі зображення під розмір вікна прев'ю. Торік аспірант Колін Медленд із Канади виявив, що цей алгоритм упереджений.
У своєму Twitter-акаунті він опублікував кілька фото з темношкірим колегою. У прев'ю було показано лише Медленда.
Надалі цю упередженість алгоритму стали помічати й інші користувачі, вони публікували аналогічні експерименти з фото, на яких зображено людей зі світлою і темною шкірою. Алгоритм ставив на прев'ю світлошкірих незалежно від їхнього розташування на знімку.
"It's the red tie! Clearly the algorithm has a preference for red ties!"
Well let's see... pic.twitter.com/l7qySd5sRW
I wonder if Twitter does this to fictional characters too.
Lenny Carl pic.twitter.com/fmJMWkkYEf
У підсумку Twitter вирішив перевірити алгоритм на упередженість. Результати цієї перевірки опублікували у блозі соцмережі 19 травня цього року. Аналіз засвідчив, що алгоритм дійсно віддає перевагу білим людям та жінкам. Однак ця перевага була незначною – від 2% до 7% порівняно з темношкірими та чоловіками.
Після цього соцмережа оголосила великий конкурс, запропонувавши користувачам надати їм переконливі докази упередженості алгоритму обрізання фото. У цьому конкурсі й переміг Кулинич. Він довів, що алгоритм віддає перевагу худим молодим особам світлого або теплого кольору з гладкою текстурою шкіри та стереотипно жіночними рисами обличчя.
Інший учасник конкурсу, Вінченцо ді Чікко, довів, що алгоритм обрізання зображення також обирає емодзі зі світлішими відтінками шкіри.
Ще одна учасниця, Роя Пакзада, зуміла підтвердити, що алгоритми упередження поширюються і на письмові функції. Вона порівняла меми з англійським та арабським шрифтом і довела, що алгоритм регулярно обрізав зображення так, що було видно лише англійський текст.