реклама
Теги → ии
Быстрый переход

Google показала прямо в рекламном ролике, как ИИ даёт вредный совет

На конференции I/O 2024 компания Google подчеркнула, что разработанный ей нейросети Gemini станут новым словом в поиске и ИИ-ассистентах. Однако одна из самых ярких демонстраций возможностей этой системы снова омрачилась недостатком, присущим всем современным большим языковым моделям — галлюцинациями, то есть дачей заведомо неверного ответа.

 Источник изображений: youtube.com/@Google

Источник изображений: youtube.com/@Google

В ролике «Поиск в эпоху Gemini» Google продемонстрировала видеопоиск — функцию поиска информации на основе видео. В качестве одного из примеров компания привела ролик с застрявшим рычажком перемотки плёнки на фотоаппарате и вопросом, почему этот рычажок не движется до конца. Gemini распознал видео, понял запрос и дал несколько советов по исправлению. И как минимум один из них оказался неверным.

ИИ порекомендовал «открыть заднюю крышку и аккуратно снять плёнку». И это, возможно, худшее, что можно сделать в данной ситуации. Потому что если открыть заднюю крышку плёночного фотоаппарата не в абсолютно тёмной комнате, плёнка засветится, и все сделанные снимки придут в негодность. Но на видео этот ответ подсвечен как наиболее подходящий.

Google уже не впервые публикует рекламный материал с фактической ошибкой — заведомо неверной информацией, которую даёт ИИ. В прошлом году чат-бот Bard сообщил, что первый снимок экзопланеты — планеты за пределами Солнечной системы — был получен космическими телескопом «Джеймс Уэбб» (JWST), хотя это не так.

SEO отправят на пенсию: поисковую выдачу Google сформирует и дополнит генеративный ИИ

На конференции разработчиков Google I/O 2024 поисковый гигант объявил, что выдачу по некоторым запросам будет формировать генеративный искусственный интеллект. Её дополнит компонент AI Overview — блок со сводкой информации по поисковому запросу, ранее доступный участникам программы тестирования Google AI Labs. До конца года расширится присутствие формата Search Generative Experience (SGE) — его аудитория достигнет миллиарда пользователей.

 Источник изображений: blog.google

Источник изображений: blog.google

«Не думаем, что всё должно ограничиться сводками ИИ. Есть возможности для внедрения генеративного ИИ в поиск, и одна из областей, которая очень волнует лично меня — это формирование страницы результатов, организованной с помощью ИИ», — пояснила глава подразделения Google Search Элизабет Хармон Рид (Elizabeth Harmon Reid). Пока Google будет показывать страницу результатов поиска нового образца, если станет понятно, что пользователь ищет вдохновения. В приведённом на конференции примере это поездка на юбилей в другой город. Вскоре новый формат также будет подключаться при поиске заведений общепита, рецептов блюд, а за ними последуют кинематограф, книги, отели, покупки и многое другое.

В случае с поездкой на юбилей в другой город придётся учесть разные аспекты: патио на крыше подойдёт не во всякое время года, а в качестве досуга можно полюбоваться архитектурой. При поиске ресторана Google покажет карусель с заведениями, продемонстрирует звёздный рейтинг, дополнит выдачу дискуссиями на Reddit и разбавит предложения дополнительной информацией: списками мест с живой музыкой, романтическими стейк-хаусами и материалами ресторанных критиков. А в нижней части страницы на демонстрации появилась кнопка «больше результатов из интернета» — возможно, это ссылка на страницу с традиционной выдачей.

Пока неясно, где на этих страницах будет размещаться реклама. И гендиректор Google Сундар Пичаи (Sundar Pichai) не дал прямого ответа, сохранится ли традиционная выдача при полномасштабном развёртывании инструментов ИИ. «Рад, что мы можем расширить спектр вариантов использования, в которых мы можем помочь пользователям поиска и Gemini. Перед вами примеры тех сложных вопросов, которые мы можем решить, как мы способны помочь в путешествии, интегрировать их с нашими продуктами и помочь более полно. Так что я рассматриваю это лишь с хорошей стороны», — пояснил глава компании.

С прошлого года Google тестирует технологию ИИ-поиска SGE (Search Generative Experience). Поначалу её аудитория была крайне ограниченной, со временем она постепенно расширялась; уже на этой неделе SGE смогут пользоваться «сотни миллионов пользователей» из США, а к концу года размер аудитории достигнет миллиарда человек. В компании предупредили, что новый формат не вытеснит традиционного поиска, да и владельцам сайтов беспокоиться не стоит: при тестировании SGE пользователи переходили на внешние ресурсы ещё чаще, чем со страницы традиционной поисковой выдачи. Google не планирует тотального насаждения ИИ, считая его полезным в работе со сложными запросами и разрозненной информацией.

Участвующий в поиске ИИ Gemini также окажется полезным в планировании. К примеру, если пользователь захочет составить программу питания семьи из четырёх человек на три дня, ИИ предложит ссылки на рецепты блюд. Gemini готов помочь в планировании и более масштабных мероприятий — поездок или вечеринок.

Google показала Project Astra — ИИ-ассистента будущего, который видит и понимает всё вокруг

Глава ИИ-подразделения Google DeepMind Демис Хассабис (Demis Hassabis) в рамках ежегодной конференции для разработчиков Google I/O рассказал о ранней версии того, что в компании называют универсальным ИИ-помощником. Речь идёт о системе под кодовым названием Project Astra, которая представляет собой мультимодальный ИИ-помощник, работающий в режиме онлайн. Он может «видеть» окружающее пространство, распознавать объекты и помогать в выполнении различных задач.

 Источник изображения: Google

Источник изображения: Google

«Я уже давно вынашивал эту идею. У нас будет этот универсальный помощник. Он мультимодальный, он всегда с вами<…> Этот помощник просто полезен. Вы привыкните к тому, что он всегда рядом, когда это нужно», — рассказал Хассабис во время презентации.

Вместе с этим Google опубликовала небольшое видео, в котором демонстрируются некоторые возможности ранней версии Project Astra. Одна из сотрудниц лондонского офиса Google активирует ИИ-помощника и просит его сообщить, когда он «увидит» что-либо, способное издавать звуки. После этого она начинает поворачивать смартфон и когда в объектив камеры попадает стоящая на столе колонка, алгоритм сообщает об этом. Далее она просит описать стоящие на столе в стакане цветные мелки, на что алгоритм отвечает, что с их помощью можно создавать «красочные творения». Далее камера телефона направляется на часть монитора, на котором в это время выведен программный код. Девушка спрашивает ИИ-алгоритм, за что именно отвечает эта часть кода и Project Astra практически моментально даёт верный ответ. Далее ИИ-помощник определил местонахождение офиса Google по «увиденному» из окна пейзажу и выполнил ряд других задач. Всё это происходило практически в режиме онлайн и выглядело очень впечатляюще.

По словам Хассабиса, Project Astra намного ближе предыдущих аналогичных продуктов к тому, как должен работать настоящий ИИ-помощник в режиме реального времени. Алгоритм построен на базе большой языковой модели Gemini 1.5 Pro, наиболее мощной нейросети Google на данный момент. Однако для повышения качества работы ИИ-помощника Google пришлось провести оптимизацию, чтобы повысить скорость обработки запросов и снизить время задержки при формировании ответов. По словам Хассабиса, последние шесть месяцев разработчики трудились именно над тем, чтобы ускорить работу алгоритма, в том числе за счёт оптимизации всей связанной с ним инфраструктуры.

Ожидается, что в будущем Project Astra появится не только в смартфонах, но и в смарт-очках, оснащённых камерой. Поскольку на данном этапе речь идёт о ранней версии ИИ-помощника, точные сроки его запуска в массы озвучены не были.

Google представила Gemini Live — ИИ-ассистента с памятью, естественной речью и компьютерным зрением

Во вторник на конференции Google I/O 2024 была анонсирована новая возможность для ИИ-чат-бота Gemini — функция Gemini Live, которая позволяет пользователям вести «углубленные» голосовые диалоги с Gemini на своих смартфонах. Пользователи могут прерывать Gemini во время его реплик, чтобы задать уточняющие вопросы, и чат-бот будет адаптироваться к речи пользователя в режиме реального времени. Кроме того, Gemini может видеть и реагировать на окружение пользователя, используя фотографии или видео, снятые камерами смартфонов.

 Источник изображений: Google

Источник изображений: Google

Gemini Live — это в некотором роде соединение платформы компьютерного зрения Google Lens и виртуального помощника Google Assistant, и их дальнейшая эволюция. На первый взгляд Gemini Live не кажется кардинальным обновлением по сравнению с существующими технологиями. Но Google утверждает, что система использует новые методы генеративного ИИ, чтобы обеспечить превосходный, менее подверженный ошибкам анализ изображений, и сочетает эти методы с улучшенным речевым движком для более последовательного, эмоционально выразительного и реалистичного многооборотного диалога.

Технические инновации, используемые в Gemini Live, частично связаны с проектом Project Astra, новой инициативой DeepMind по созданию приложений и «агентов» на базе ИИ с поддержкой «понимания» в реальном времени различных источников данных — текста, аудио и изображения. «Мы всегда хотели создать универсального агента, который будет полезен в повседневной жизни, — сказал на брифинге Демис Хассабис (Demis Hassabis), генеральный директор DeepMind. — Представьте себе агентов, которые могут видеть и слышать то, что мы делаем, лучше понимать контекст, в котором мы находимся, и быстро реагировать в разговоре, делая темп и качество взаимодействия гораздо более естественными».

Gemini Live, который будет запущен только в конце этого года, сможет отвечать на вопросы о предметах, находящихся в поле зрения (или недавно попавших в поле зрения) камеры смартфона, например, в каком районе находится пользователь или как называется сломавшаяся деталь велосипеда. Либо пользователь сможет указать системе на часть компьютерного кода, а Live объяснит, за что она отвечает. А на вопрос о том, где могут находиться очки пользователя, Gemini Live скажет, где он видел их в последний раз. А как это облегчит поиск потерянного пульта от телевизора!

Live также сможет стать своеобразным виртуальным наставником, помогая пользователям отрепетировать речь к мероприятию, обдумать идеи и так далее. Live может подсказать, какие навыки следует подчеркнуть на предстоящем собеседовании или стажировке, или дать совет по публичному выступлению.

Способность Gemini Live «запоминать», что происходило недавно, стала возможной благодаря архитектуре модели, лежащей в ее основе — Gemini 1.5 Pro, а также, но в меньшей степени, других «специфических» генеративных моделей. У Gemini 1.5 Pro весьма ёмкое контекстное окно, а значит, она может принять и обработать большое количество данных — около часа видео — прежде чем подготовить ответ. В Google отметили, что Gemini Live будет помнить всё, что происходило в последние часы.

Gemini Live напоминает генеративный ИИ, применяемый в очках Meta, которые аналогичным образом могут просматривать изображения, снятые камерой, и интерпретировать их практически в реальном времени. Судя по демонстрационным роликам, которые Google показала во время презентации, Live также очень похож на недавно обновленный ChatGPT от OpenAI.

Ключевое различие между новым ChatGPT и Gemini Live заключается в том, что решение от Google не будет бесплатным. После запуска Live будет эксклюзивом для Gemini Advanced, более сложной версии Gemini, которая доступна подписчикам плана Google One AI Premium Plan, стоимостью 20 долларов в месяц.

Возможно, в качестве отсылки к очкам Meta, в одном из демонстрационных роликов Google был показан человек в AR-очках, оснащенных приложением, похожим на Gemini Live. Правда, компания Google, желая избежать очередного провала в сфере умных очков, отказалась сообщить, появятся ли этот или подобный продукт с генеративным ИИ на рынке в ближайшем будущем.

ИИ-чат-бот Anthropic Claude запущен в Европе — это один из главных конкурентов ChatGPT

Специализирующийся на технологиях искусственного интеллекта стартап Anthropic открыл для европейских пользователей чат-бот Claude и услуги по подписке — в стремлении нарастить число пользователей и объёмы доходов компания решилась выйти на рынок с более жёстким регулированием, чем в США.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Базовые программные продукты от Anthropic уже пользуются некоторой популярностью в финансовом секторе и гостиничном бизнесе, сообщили в компании, и теперь здесь решили закрепить успех. Соблюдать действующие в Европе жёсткие ограничения на управление данными Anthropic помогут её основные партнёры в области облачных вычислений — Amazon и Google, — сообщил гендиректор компании Дарио Амодей (Dario Amodei).

Anthropic, основанная в 2021 году бывшими сотрудниками OpenAI, позиционирует себя как разработчика ответственного и этичного ИИ. Подобно многим другим представителям отрасли, компания уделяет много внимания продаже услуг корпоративным клиентам. В мае Anthropic представила корпоративный тарифный план Team, но спрос на него глава компании комментировать отказался. В Европе цены будут аналогичными — здесь стартапу придётся конкурировать с OpenAI и французским разработчиком Mistral.

Anthropic также придётся соблюдать требования принятого ранее «Закона об ИИ». Он требует от разработчиков применять адекватные средства контроля кибербезопасности, а также раскрывать некоторые подробности об архитектуре и потенциальных угрозах, которые могут представлять модели ИИ. Механизмы соблюдения требований закона будут зависеть правоприменительной практики, которую станут реализовывать местные регуляторы, отметил соучредитель компании Джек Кларк (Jack Clark).

В Великобритании запустили платформу для оценки безопасности ИИ

Британский Институт безопасности ИИ (AISI), созданный в ноябре 2023 года, запустил платформу Inspect, предназначенную для тестирования и оценки безопасности ИИ. Она упростит оценку ИИ для применения в промышленных, исследовательских и научных организациях.

 Источник изображения: geralt/Pixabay

Источник изображения: geralt/Pixabay

Набор инструментов Inspect, доступный по лицензии с открытым исходным кодом, включая лицензии MIT, предназначен для оценки определённых возможностей моделей ИИ в различных сферах, включая основные знания моделей и способность рассуждать, и выработки оценки на основе полученных результатов.

По данным ресурса TechCrunch, платформа Inspect состоит из трех основных компонентов: наборов данных, инструментов решения и инструментов оценки. Наборы данных предоставляют образцы для оценочных тестов. Инструменты решения выполняют работу по проведению тестов. А инструменты оценки оценивают результаты и суммируют баллы тестов в метрики.

Компоненты Inspect можно дополнить с помощью сторонних пакетов, написанных на Python. «Мы надеемся, что глобальное сообщество ИИ будет использовать Inspect не только для проведения собственных испытаний на безопасность моделей, но и для адаптации и развития платформы с открытым исходным кодом, чтобы мы могли производить высококачественные оценки по всем направлениям», — заявил председатель AISI Ян Хогарт (Ian Hogarth).

Платформа Inspect была представлена спустя несколько дней после того, как Национальный институт стандартов и технологий США (The National Institute of Standards and Technology, NIST) анонсировал в конце апреля программу NIST GenAI, предназначенную для оценки различных технологий генеративного ИИ, включая модели, генерирующие текст и изображения.

В апреле США и Великобритания объявили о партнёрстве, в рамках которого «правительства будут обмениваться техническими знаниями, информацией и талантливыми специалистами в области безопасности ИИ». В рамках сотрудничества в США будет создан институт безопасности ИИ, который займётся оценкой рисков, связанных с ИИ и генеративным ИИ.

64 пикселя за 20 минут: на 40-летнем компьютере Commodore 64 запустили ИИ-генератор изображений

В августе 1982 года вышел компьютер Commodore 64, которому было суждено стать одним из самых продаваемых ПК всех времён. Как оказалось, оборудование той эпохи и может справляться и с современными алгоритмами искусственного интеллекта — конечно, с некоторыми оговорками.

 Источник изображения: github.com/nickbild

Источник изображения: github.com/nickbild

Энтузиаст Ник Бильд (Nick Bild) разработал для Commodore 64 систему генеративного ИИ, способную создавать изображения размером 8 × 8 пикселей, которые затем преобразуются в картинки 64 × 64 точки. Эти изображения призваны служить источником вдохновения при разработке концепций игрового дизайна. Как оказалось, современную модель генеративного ИИ действительно можно запускать на таком старом оборудовании. На выполнение 94 итерации для построения окончательного изображения у Commodore 64 ушли 20 минут — и это, пожалуй, совсем неплохо, учитывая возраст компьютера.

О проектах уровня OpenAI речи, конечно, не идёт, но и «вероятностный алгоритм PCA», запущенный на 40-летней машине, в реальности был обучен на современном компьютере. Таким образом, хотя модель и по-честному работала на Commodore 64, для её запуска всё равно оказался необходим современный ПК.

В США разработан законопроект, который позволит ограничивать экспорт моделей ИИ

Американские парламентарии разработали законопроект, который облегчит администрации президента установление экспортного контроля над моделями искусственного интеллекта — это очередная попытка США защитить свои технологии от посягательств считающихся недружественными стран.

 Источник изображения: Brian Penny / pixabay.com

Источник изображения: Brian Penny / pixabay.com

Документ подготовлен представителями обеих крупнейших политических партий США — она также предоставит Министерству торговли полномочия запрещать американским специалистам сотрудничество с иностранцами при разработке систем ИИ, если те представляют угрозу для национальной безопасности страны. Законопроект призван защитить любые будущие нормы экспортного контроля в отношении ИИ от юридических проблем — в его разработке участвовали чиновники администрации президента. В политической среде США растут опасения, что считающиеся недружественными страны будут использовать американские модели ИИ для проведения кибератак или создания мощного биологического оружия.

В минувшую среду стало известно, что США готовятся открыть новый фронт санкционной войны с Россией и Китаем и начали изучать план по введению экспортного контроля в отношении передовых моделей ИИ. В соответствии с действующим законодательством курирующему экспортную политику Минторгу США значительно сложнее контролировать экспорт открытых моделей ИИ, которые можно свободно загрузить. Принятие закона устранит препятствия на пути регулирования экспорта открытых моделей ИИ — такие препятствия накладывает действующий «Закон о чрезвычайных международных экономических полномочиях», — а Минторг получит особые полномочия по регулированию систем ИИ.

В марте китайские государственные СМИ распространили заявление Пекинской академии искусственного интеллекта, согласно которому большинство моделей ИИ в стране были созданы с использованием открытых моделей Meta Llama, и это большая проблема для китайских разработчиков. В ноябре считавшийся перспективным китайский стартап 01.AI, учреждённый бывшим топ-менеджером Google Ли Кай-фу (Lee Kai-fu) подвергся резкой критике, когда инженеры в области ИИ обнаружили, что разработанная стартапом модель также была построена на основе Llama.

Новая статья: Практикум по ИИ-рисованию, часть восьмая: больше жизни!

Данные берутся из публикации Практикум по ИИ-рисованию, часть восьмая: больше жизни!

McAfee продемонстрировала детектор звуковых дипфейков

На мероприятии RSA Conference компания McAfee продемонстрировала систему Deepfake Detector, работа над которой ведётся при участии Intel. Система, первоначально называвшаяся Project Mockingbird, предназначена для обнаружения звуковых дипфейков — аудиоподделок, созданных при помощи искусственного интеллекта.

 Источник изображения: S. Keller / pixabay.com

Источник изображения: S. Keller / pixabay.com

Технический директор McAfee Стив Гробман (Steve Grobman) показал работу Deepfake Detector на примере двух видеороликов — показ видео сопровождается информацией от ИИ-детектора, которая выводится в строке состояния. При запуске видеоролика, не подвергавшегося обработке, система показала нулевую вероятность подделки. Далее было запущено явно фейковое видео, на которое система сразу отреагировала показателем в 60 %, и по мере просмотра вероятность выросла до 95 %.

С момента первой демонстрации на CES 2024 инженеры McAfee оптимизировали систему для работы с ИИ-ускорителями Intel NPU на чипах Meteor Lake, что позволило увеличить производительность на 300 %. Можно запускать несколько процессов Deepfake Detector для одновременного анализа нескольких видеороликов; хотя и видеозаписями возможности системы не ограничиваются — она может анализировать звук любого приложения в системе. А локальный режим её работы вместо запуска из облака означает высокую конфиденциальность — анализируемые данные не покидают компьютера.

Авторы проекта преднамеренно ограничились работой со звуком: специалисты McAfee по борьбе с угрозами обнаружили, что во многих публикуемых мошенниками видеороликах используется настоящее видео с поддельным звуком. Фальшивый звук сопровождает и поддельное видео, а значит, постоянной величиной чаще всего оказывается подделка аудио. Сейчас компания работает над адаптацией технологии для потребителей — для этого управление программой будет необходимо сделать предельно простым и понятным.

Google представила мощную нейросеть AlphaFold 3 для предсказания структуры белков — её может опробовать каждый

Подразделение Google DeepMind представило новую версию модели искусственного интеллекта AlphaFold, которая предсказывает форму и поведение белков. AlphaFold 3 отличается не только более высокой точностью — теперь система предсказывает взаимодействие белков с другими биологическими молекулами; кроме того, её ограниченная версия теперь бесплатно доступна в формате веб-приложения.

 Источник изображения: blog.google

Источник изображения: blog.google

С выхода первой нейросети AlphaFold в 2018 году она стала ведущим методом прогнозирования структуры белков на основе последовательностей аминокислот, из которых они состоят. Понимание структуры и основ взаимодействия белков лежит в основе почти всей биологии. Классические методы моделирования белков имеют значительные ограничения: даже зная форму, которую примет последовательность аминокислот, нельзя сказать наперёд, с какими другими молекулами она будет связываться и как. И если необходимо достичь какой-то практической цели, требуется кропотливая работа по моделированию и тестированию — ранее на это уходили несколько дней, а иногда даже недель и месяцев.

AlphaFold решает эту задачу, предсказывая вероятную форму молекулы белка по заданной последовательности аминокислот, указывая, с какими другими белками она сможет взаимодействовать. Особенность новой AlphaFold 3 состоит в её способности предсказывать взаимодействие белков с другими биологическими молекулами, в том числе с цепочками ДНК и РНК, а также необходимыми для этого ионами.

Большой проблемой AlphaFold, как и других инструментов на основе ИИ, является сложность в их развёртывании. Поэтому в Google DeepMind запустили бесплатное веб-приложение AlphaFold Server — оно доступно для некоммерческого использования. Платформа достаточно проста в работе: осуществив вход с учётной записью Google, можно ввести несколько последовательностей и категорий, после чего она выдаст результат в виде трёхмерной молекулы, окрашенной в цвет, который отражает уверенность модели в своей правоте. На вопрос о том, есть ли существенная разница между общедоступной версией модели и той, что используется внутри компании, глава подразделения Google DeepMind Демис Хассабис (Demis Hassabis) заверил, что «мы сделали доступными большинство функций новой модели», но подробностей не привёл.

Через год сегодняшний ChatGPT будет выглядеть смехотворно плохо, заявил директор OpenAI

Брэд Лайткап (Brad Lightcap), главный операционный директор OpenAI, рассказал на Глобальной конференции в Институте Милкена о будущем компании и её планах на следующие 6–12 месяцев. По его мнению, нынешние системы искусственного интеллекта (ИИ), такие как ChatGPT, являются «смехотворно плохими» по сравнению с тем, что ждёт человечество впереди. Он подчеркнул, что будущие версии ИИ будут настолько продвинутыми, что изменят саму суть взаимодействия с пользователями.

 Источник изображения: JuliusH / Pixabay

Источник изображения: JuliusH / Pixabay

Лайткап описал нынешнюю версию ChatGPT как начальный этап в эволюции ИИ, предназначенного для выполнения простых задач. «Я думаю, что через год мы оглянемся назад и поймём, насколько несовершенными они были», — заявил Лайткап, когда его спросили о бизнесе OpenAI через 6–12 месяцев. В перспективе он предвидит эволюцию ИИ в направлении более сложных задач, где ИИ станет отличным напарником, способным на равных общаться с людьми, как друг или коллега.

Кроме технологических аспектов Лайткап прокомментировал социальные последствия развития ИИ. Он опроверг мнение о том, что развитие ИИ приведёт к массовым увольнениям людей, утверждая, что новые ИИ-системы наоборот спровоцируют спрос на ещё не существующие вакансии. По его мнению, экономика станет более разнообразной и устойчивой, а рынок труда адаптируется к технологическим изменениям.

В свете этих заявлений интересно, что генеральный директор OpenAI Сэм Альтман (Sam Altman) также высказывался о будущем ChatGPT на семинаре в Стэнфордском университете, назвав GPT-4 самой глупой моделью, с которой людям придётся работать когда-либо в будущем. Такие заявления вероятно намекают на то, что будущие обновления ChatGPT станут переломными и приведут к значительному улучшению функциональности продуктов OpenAI.

OpenAI позволит правообладателям запретить использование контента для обучения ИИ

OpenAI сообщила, что разрабатывает инструмент под названием Media Manager, который позволит создателям и владельцам контента отметить свои работы для компании и указать, как можно ли их включать в массив данных для исследований и обучения ИИ, или же нельзя.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Инженеры OpenAI намереваются разработать этот инструмент к 2025 году. Сейчас компания сотрудничает с «создателями контента, правообладателями и регуляторами» над выработкой стандарта. «Создание первого в своём роде инструмента, который поможет нам идентифицировать текст, аудио и видео, защищённые авторским правом, в нескольких источниках и отразить предпочтения создателей, потребует передовых исследований в области машинного обучения. Со временем мы планируем внедрить дополнительные возможности и функции», — сообщила OpenAI в своём блоге.

Media Manager, вероятно, станет ответом компании на критику в отношении её подхода к разработке искусственного интеллекта. Она в значительной степени использует общедоступные данные из интернета, но совсем недавно несколько крупных американских изданий подали на OpenAI в суд за нарушение прав интеллектуальной собственности: по версии истцов, компания украла содержимое их статей для обучения моделей генеративного ИИ, которые затем коммерциализировались без компенсации и упоминания исходных публикаций.

OpenAI считает, что невозможно создавать полезные модели ИИ без защищённых авторским правом материалов. Но в стремлении унять критику и защититься от вероятных исков компания предприняла несколько шагов, чтобы пойти навстречу создателям контента. В прошлом году она позволила художникам удалять свои работы из наборов обучающих данных для генераторов изображений, а также ввела директиву для файла robots.txt, которая запрещает её поисковому роботу копировать содержимое сайтов для дальнейшего обучения ИИ. OpenAI продолжает заключать соглашения с крупными правообладателями на предмет использования их материалов.

OpenAI научилась распознавать сгенерированные своим ИИ изображения, но не без ошибок

OpenAI объявила о начале разработки новых методов определения контента, созданного искусственным интеллектом (ИИ). Среди них — новый классификатор изображений, который определяет, было ли изображение сгенерировано ИИ, а также устойчивый к взлому водяной знак, способный маркировать аудиоконтент незаметными сигналами.

 Источник изображения: Placidplace / Pixabay

Источник изображения: Placidplace / Pixabay

Новый классификатор изображений способен с точностью до 98 % определять, было ли изображение создано ИИ-генератором изображений DALL-E 3. Компания утверждает, что их классификатор работает, даже если изображение было обрезано, сжато или была изменена его насыщенность. В то же время эффективность этой разработки OpenAI в распознавании контента, созданного другими ИИ-моделями, такими как Midjourney, значительно ниже — от 5 до 10 %.

Также OpenAI ввела водяные знаки для аудиоконтента, созданного с помощью своей платформы преобразования текста в речь Voice Engine, находящейся на стадии предварительного тестирования. Эти водяные знаки содержат информацию о создателе и методах создания контента, что значительно упрощает процесс проверки их подлинности.

OpenAI активно участвует в работе Коалиции по происхождению и аутентичности контента (C2PA), в состав которой также входят такие компании, как Microsoft и Adobe. В этом месяце компания присоединилась к руководящему комитету C2PA, подчеркивая свою роль в разработке стандартов прозрачности и подлинности цифрового контента.

Для этих целей OpenAI интегрировала в метаданные изображений так называемые учётные данные контента от C2PA. Эти учётные данные, фактически являясь водяными знаками, включают информацию о владельце изображения и способах его создания. OpenAI уже много лет работает над обнаружением ИИ-контента, однако в 2023 году компании пришлось прекратить работу программы, определяющей текст, сгенерированный ИИ, из-за её низкой точности.

Разработка классификатора изображений и водяного знака для аудиоконтента продолжается. В OpenAI подчёркивают, что для оценки эффективности этих инструментов крайне важно получить отзывы пользователей. Исследователи и представители некоммерческих журналистских организаций имеют возможность протестировать классификатор изображений на платформе доступа к исследованиям OpenAI.

Microsoft создала секретный генеративный ИИ для спецслужб США — он полностью изолирован от интернета

Корпорация Microsoft запустила предназначенную для спецслужб США модель генеративного искусственного интеллекта на суперкомпьютере, полностью изолированном от интернета. Теперь Малдер и Скалли смогут безопасно использовать современные технологии для анализа сверхсекретной информации.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

По словам представителя Microsoft, впервые большая языковая модель генеративного ИИ на основе GPT-4 полностью отделена от интернета. Большинство подобных моделей, включая ChatGPT от OpenAI, полагаются на облачные сервисы для обучения и определения закономерностей, но Microsoft хотела предоставить разведывательному сообществу США «по-настоящему безопасную систему».

Разведывательные службы всех стран рассчитывают, что генеративный ИИ поможет в анализе быстро растущих объёмов ежедневно генерируемой секретной информации, но им необходимо сбалансировать обращение к большим языковым моделям с риском утечки или взлома. В прошлом году ЦРУ запустило службу, подобную ChatGPT, для работы с несекретными документами, но спецслужбам требовалось обрабатывать гораздо более конфиденциальные данные.

«Идёт гонка по внедрению генеративного ИИ в разведывательные данные, — заявила помощник директора Центра транснациональных и технологических миссий ЦРУ Шитал Патель (Sheetal Patel). — Первая страна, которая будет использовать генеративный ИИ, выиграет эту гонку. И я хочу, чтобы это были мы».

Microsoft потратила 18 месяцев на разработку и внедрение системы, включая капитальные доработки существующего суперкомпьютера в Айове. Представленная модель GPT4 является статической, то есть она может только анализировать информацию, но не обучаться на этих данных. Таким образом, правительство может сохранить свою модель «чистой» и предотвратить утечку секретной информации. Прогнозируется, что доступ к системе получат около 10 000 сотрудников со специальным допуском.

window-new
Soft
Hard
Тренды 🔥
Microsoft представила модульный беспроводной контроллер Proteus для людей с ограниченными возможностями 48 мин.
Китайским автопроизводителям рекомендовано довести долю чипов локального производства до 25 % уже в следующем году 2 ч.
Владельцы Apple iPad стали всё реже обновлять свои планшеты 3 ч.
До конца февраля Dell выручит около $10 млрд на реализации серверов с ускорителями вычислений Nvidia 4 ч.
И для ИИ, и для HPC: первые европейские серверные Arm-процессоры SiPearl Rhea1 получат HBM-память 8 ч.
Новая статья: Обзор смартфона vivo X100 Pro: хищник в засаде 9 ч.
Китайские учёные создали прозрачный бамбук — огнеупорную и водонепроницаемую альтернативу стеклу 10 ч.
Учёные создали недорогой и нетоксичный аккумулятор, который сохранит 80 % ёмкости после 8000 циклов перезарядки 10 ч.
«Охотники за привидениями» в реальной жизни: британская полиция получит оружие против преступников на электросамокатах 12 ч.
Lenovo выпустила компактную мобильную рабочую станцию ThinkPad P14s Gen 5 на Ryzen Pro 8040HS 14 ч.