Еще в 2023 году, согласно исследованиям Microsoft, мы сталкивались с ИИ до 100 раз в день — даже не замечая этого. Сейчас степень этого взаимодействия еще выше: автокоррекция в мессенджерах, фильтрация писем на электронной почте, ранжирование ленты в любимой соцсети и, конечно же, контекстная реклама. Эта статья — крик души автора, кто активно пользуется услугами deepseek и Яндекс Музыки.
1. ИИ везде, даже там, где он не нужен
В 2025 году каждая компания считает обязательным добавить в свой продукт продвинутый ИИ-инструмент.
Зубная щетка с ИИ, способным анализировать ваш «стиль чистки» и степень нажима на десны.
«Умная» бутылка для воды с датчиками, с приложением, которое присылает данные о температуре, pH и уровне электролитов и пассивно-агрессивные уведомления, если ты вдруг не выпил «положенную норму». Цена вопроса — 200 долларов. Что ж, инклюзивненько.
90% таких гаджетов — решение несуществующих проблем. Но иногда, безусловно, рождаются и полезные идеи — ИИ-слуховые аппараты, «умные очки», которые действительно улучшают жизнь.
2. Уверенно дает неправильные ответы
Центр цифровой журналистики TOW провел тесты восьми инструментов генеративного поиска с функцией поиска в реальном времени. Ученые оценили их способность точно находить и цитировать новостной контент, а также то, как они ведут себя, когда не могут этого сделать.
В совокупности нейросети давали неверные ответы более чем на 60% запросов. Большинство протестированных инструментов с пугающей уверенностью выдавали неточные ответы, редко используя уточняющие фразы, типа «похоже», «возможно», «может быть» и т. д., и еще реже — честные «я не смог найти точную статью».
Что еще забавнее — премиум-модели (платные) давали более уверенные неверные ответы, чем их бесплатные аналоги.
3. Пресловутые fake news
Из последних показательных примеров — Met Gala 2025. Это ежегодное мероприятие по сбору средств в пользу Института костюма Метрополитен-музея в Нью-Йорке. Звезды Голливуда и не только приходят на красную дорожку в тематических нарядах (тема каждый год разная), но и создают тонну инфоповодов.
В этом году в соцсетях завирусился образ Билли Айлиш. Многим он не понравился, даже показался «колхозным», но проблема в том, что певица в тот вечер давала концерт на другом конце земного шара. Неизвестный гений с помощью ИИ создал наряд, и мало кто распознал в нем фейк.
4. «Ленивый» контент
Фото с шестипалыми людьми и абсурдные видео с котиками давно стали обыденностью в лентах соцсетей. А сейчас ИИ-арты заполоняют и картинные галереи. Продаются картины с животными-мутантами, нарушающими законы физики, с бессмысленными надписями. Иногда на таких картинах даже не убирают водяные знаки генеративных нейросетей.
Крупные корпорации все чаще пичкают потребителей «ленивым» ИИ-контентом, экономя время и деньги. Аудитория пресытилась и хочет за свои кровно заработанные получать более качественный продукт.
5. Потеря аутентичности
В фильме «Бруталист» и мюзикле «Эмилия Перес» (победители «Оскара») с помощью ИИ переозвучивали голоса главных актеров.
В первом случае на стадии постпродакшена использовалась программа от Respeecher (украинский стартап, работавший с Disney и Lucasfilm), чтобы дозаписать несколько новых реплик главного героя без участия актера, Эдриана Броуди. Нейросеть анализировала архивные записи Броуди (его предыдущие фильмы, интервью), учитывала особенности вроде хрипловатого тембра и манеры растягивать слова.
Режиссер Брэди Корбет назвал это «спасением фильма» без дорогостоящих пересъемок, но вот гильдия актеров SAG-AFTRA выразила опасения, что такие технологии могут снизить ценность живого исполнения.
Во втором случае ИИ помогал исполнительнице главной роли попадать в ноты. Напомню, речь идет о мюзикле.
6. Зависимость от алгоритмов
Алгоритмы сегодня управляют почти всеми аспектами нашей жизни — от того, какие новости мы читаем, до того, какую музыку слушаем. Но их избыточное применение создает цифровую зависимость, сужает кругозор и даже меняет поведение.
Знакомая ситуация: лайкнул одно короткое видео и бум — теперь каждый второй (если не первый) ролик будет на эту же тему, под эту же песню или просто от этого же автора. И ладно если речь идет о развлекательном контенте. Но соцсети могут изолировать пользователя в жутких информационных пузырях псевдонаучных теорий о плоской земле, конспирологий о теневом правительстве или тех же лживых новостей.
7. Обучение за чужой счет
В одной из самых популярных ChatGPT есть продвинутый генератор изображений, который может перерисовать любую картинку в стиле анимационной студии Ghibli. В стиле культовых аниме «Унесенные призраками», «Мой сосед Тоторо» и «Ходячий замок» пользователи изображали себя, звезд, политиков, героев других фильмов и мультфильмов, мемы.
Художники, опрошенные Associated Press, считают обновленную GPT-4o еще одним примером того, как такие компании, как OpenAI, «просто не заботятся о работе художников или их средствах к существованию». Forbes пишет, что тренд «Ghibli Day» (который исчезнет так же быстро, как и появился) показывает, как искусство становится «одноразовым» благодаря ИИ.
Культура интернет-потребления сильно изменилась с развитием искусственного интеллекта. Очевидно, частое злоупотребление ИИ-инструментами обесценивает человеческий труд. Сами по себе нейросети не «зло», но их массовое внедрение часто бесцельно и разрушительно. Важно сохранять баланс между технологиями и человечностью. Критическое отношение к ИИ — необходимый навык в наши дни.