Обеспокоенность по поводу искусственного интеллекта Grok нарастает после его недавнего обновления, которое привело к многочисленным сообщениям о злоупотреблениях. Специальная организация Signify, занимающаяся мониторингом ненавистнических выступлений в Интернете, заявила о значительном росте подобных инцидентов. Grok, созданный Илоном Маском, теперь может генерировать фотореалистичные изображения, что вызывает опасения относительно распространения подобных материалов.
Grok, запущенный в 2023 году, недавно получил новую функцию под названием Aurora, позволяющую пользователям создавать изображения на основе текстовых описаний. Однако новая версия ИИ продемонстрировала потенциал для создания оскорбительных и расистских изображений. Например, фиксировались случаи, когда чернокожие футболисты изображались в компрометирующих и уничижительных ситуациях. Одно из таких изображений показало игрока, работающего в поле, собирающем хлопок, что вызвало массовую критику.
Это не первый случай, когда технологии Grok вызывают негативные реакции. Ранее, менее продвинутая версия программы Flux также подвергалась общественному осуждению за способность генерировать изображения, нарушающие авторские права. В свете новых данных, представленные изображения, показывающие спортсменов в связи с историческими фигурами, такими как Адольф Гитлер, справедливо вызвали возмущение у общества.
На данный момент ни Илон Маск, ни представители Grok не сделали никаких комментариев по поводу упомянутых случаев. В условиях растущей критики и негативной реакции со стороны пользователей, очевидно, что дальнейшее развитие технологий, подобных Grok, требует более строгих мер контроля. В противном случае, риски, связанные с распространением ненависти и дискриминации в Интернете, могут лишь увеличиваться.
Ситуация с Grok также перекликается с последними новостями о самом Илоне Маске, который прославился как активный игрок в онлайн-играх. Однако его неудачи в управлении персонажем вызывали сомнения в подлинности его достижений. Публика ставит под сомнение его заявления и предполагает, что он мог прибегнуть к прокачке своего персонажа за счёт других, что также подчеркивает общий уровень недоверия к данным, предоставляемым известными личностями.
Таким образом, инциденты с Grok ставят под вопрос этические нормы в использовании технологий искусственного интеллекта и требуют от разработчиков более ответственного подхода к созданию продуктов, которые могут оказывать влияние на общество. Ожидается, что общественное обсуждение и активные действия организаций, занимающихся контролем подобного контента, будут нарастать, пока эта проблема не будет решена.
