C 2018 года в Twitter работает алгоритм, который автоматически подстраивает большие изображения под размер окна превью. В прошлом году аспирант Колин Медленд из Канады обнаружил, что этот алгоритм предвзят.
В своем Twitter-аккаунте он опубликовал несколько фото с темнокожим коллегой. В превью отображался только Медленд.
В дальнейшем эту предвзятость алгоритма стали замечать и другие пользователи и публиковать аналогичные эксперименты с фото, на которых изображены люди со светлой и темной кожей. Алгоритм ставил на превью светлокожих независимо от их расположения на снимке.
"It's the red tie! Clearly the algorithm has a preference for red ties!"
Well let's see... pic.twitter.com/l7qySd5sRW
I wonder if Twitter does this to fictional characters too.
Lenny Carl pic.twitter.com/fmJMWkkYEf
В итоге Twitter решил проверить алгоритм на предвзятость. Результаты этой проверки были опубликованы в блоге соцсети 19 мая этого года. Анализ показал, что алгоритм действительно отдает предпочтение белым людям и женщинам. Однако это предпочтение было незначительным – от 2% до 7% по сравнению с темнокожими и мужчинами.
После этого соцсеть объявила большой конкурс, предложив пользователям предоставить им убедительные доказательства предвзятости алгоритма обрезки фото. В этом конкурсе и победил Кулинич. Он доказал, что алгоритм отдает предпочтение худым, молодым лицам светлого или теплого цвета с гладкой текстурой кожи и со стереотипно женственными чертами лица.
Другой участник конкурса, Винченцо ди Чикко, доказал, что алгоритм обрезки изображения также предпочитает эмодзи с более светлыми оттенками кожи.
Еще одна участница, Роя Пакзада, сумела подтвердить, что алгоритмы предубеждения распространяются и на письменные функции. Она сравнила мемы с английским и арабским шрифтом и доказала, что алгоритм регулярно обрезал изображение таким образом, что был виден только английский текст.