Facebook ставит неэтичные эксперименты над пользователями
![]() |
| Facebook экспериментирует над пользователями |
Еще в 2012 году Facebook начал эксперимент, чтобы определить, как изменяются реакции людей, если они видят больше позитивных сообщений или больше негативных.
Предполагалось, что те, кто видит слишком много положительных сообщений, могут комплексовать из-за того, что их социальная жизнь хуже. Исследователи обнаружили, что дела обстоят прямо противоположным образом, пишет Bloomberg Businessweek.
Такие действия Facebook вызывают вопросы этического и законодательного характера. Ученые не должны экспериментировать на людях без их разрешения. «Если вы подвергаете людей тому, что вызывает изменения в психологическом состоянии, это эксперимент», - сказал Джеймс Гриммельман, профессор технологии и права в Университете штата Мэриленд.
Адам Крамер, изучающий данные в Facebook, извинился за беспокойство, вызванное исследованиями. «Фактическое воздействие на людей в эксперименте было минимальным, насколько это возможно для того, чтобы статистически достоверно определить его», — написал он в посте на Facebook.
Пользователи Facebook возмущены экспериментом
Пользователи соцсети начали возмущаться после того, как Facebook опубликовал статью об исследовании в научном журнале. Строго говоря, по научным стандартам, все социальные медиа в значительной степени являются неэтичным экспериментом.
Но, в конце концов, Facebook не претендует на то, чтобы показать своим пользователям нефильтрованную версию того, что публикуют их друзья. Он использует какой-то таинственный «коктейль» из факторов, чтобы решить, какое сочетание контента, скорее всего, задержит людей на сайте как можно дольше. Цель, разумеется, состоит в том, чтобы увеличить количество рекламных объявлений, показываемых пользователям. Почти каждое решение, принятое Facebook, основано на том, что принесет деньги.
В отличие от исследований в области социальных наук для Facebook эмоциональная манипуляция является побочным эффектом, а не главной целью. К примеру, разрабатывая механизмы контроля над лентой новостей, Facebook учел, что вирусный контент, как правило, положительный, а новости скучные. Таким образом, он просто следует предпочтениям людей.
То же самое можно сказать и о любой персонализации в социальных медиа каналах и в результатах поиска. Все эти сервисы не являются нейтральными. Но, возможно, Facebook может превратить свои эмоциональные фильтры в функцию. Для этого достаточно лишь дать людям выбирать между «негативной» и «позитивной» версиями сайта.


Google тестує браузер Disco, Meta готує конкурента GPT-5, а Пентагон масово впроваджує генеративний ШІ
WSJ: «мирний план» Трампа для України може супроводжуватися великою бізнес-угодою з РФ — що відомо
«Єрмака прибрали», але правила гри лишилися: про що говорять Шабунін і Ніколов
Кінець Голлівуду? Runway Gen-4.5, переклад у навушниках від Google та «ШІ-офіс» 2025: що реально змінилося
Битва за нанометри: як санкції змусили Китай піти ва-банк у виробництві мікрочіпів
Як Зеленський здобував і втрачав друзів: ключові фігури з оточення президента у версії «Телебачення Торонто»
Time назвав «архітекторів штучного інтелекту» Людьми року 2025
Чому Земля перетворилася на «сніжну кулю» майже на 100 мільйонів років











