реклама
Теги → google
Быстрый переход

Wear OS 5 существенно увеличит время автономной работы смарт-часов

В этом году Google выпустит Wear OS 5, новую версию своей программной платформы для смарт-часов. Она получит ряд улучшений по сравнению с предыдущей версией операционной системы, а также обеспечит лучшую автономность мобильных устройств.

 Смарт-часы Pixel Watch 2 / Источник изображения: Google

Смарт-часы Pixel Watch 2 / Источник изображения: Google

Одним из ключевых нововведений станет существенное увеличение времени автономной работы устройств. К примеру, устройства с Wear OS 5 будут на 20 % медленнее расходовать заряд аккумулятора во время длительных пробежек. Google продолжает делать акцент на увеличении времени автономной работы не просто так. Прошлогодняя Wear OS 4 позволила смарт-часам Pixel Watch 2 работать без подзарядки в течение всего дня, чего оригинальная версия устройства делать не могла. Очевидно, что очередная оптимизация энергоэффективности позволит устройствам работать без подзарядки ещё дольше.

По данным Google, пользовательская база Wear OS за последний год выросла на 40 % и охватила 160 стран мира. Вероятно, оценить реальные улучшения в Wear OS 5 можно будет лишь позднее в этом году, когда на рынке появятся смарт-часы следующего поколения от Samsung и Pixel Watch 3. Обычно новые версии ОС появляются первыми именно на устройствах Samsung и собственных часах Google, тогда как сторонние разработчики выпускают продукты на её основе позднее.

 Источник изображения: Google

Источник изображения: Google

Помимо повышения автономности Google упоминает некоторые улучшения циферблатов для смарт-часов. Пользователи получат доступ к новым виджетам для просмотра данных о погоде, прогрессе в достижении целей и др. В дополнение к этому Google стремится облегчить разработчикам процесс создания интерфейсов для смарт-часов с большим круглым экраном. Также упоминаются инструменты, облегчающие процесс тестирования фитнесс-функций. Некоторые изменения получат функции для отслеживания состояния здоровья пользователя, такие как, например, возможность просмотра данных за последние 30 дней. Ряд улучшений ждёт и фитнес-функции, например, появление возможности сбора большего количества данных во время занятий бегом.

Несмотря на то, что Google продолжает активно развивать платформу, похоже, что фрагментация Wear OS продолжит сохраняться. В прошлом году релиз Wear OS 4 состоялся до того, как Wear OS 3 стала доступна пользователям всех совместимых устройств сторонних разработчиков. Судя по всему, аналогичная ситуация повторится в этом году, когда начнётся распространение Wear OS 5.

Поисковая выдача в чистом виде: в Google появился традиционный веб-поиск

В поисковой выдаче Google появилась вкладка «Веб-версия» (Web), которая показывает только традиционные текстовые результаты поиска без добавленных компанией многочисленных надстроек, загромождающих стандартные «десять синих ссылок».

Google добавила к вариантам поисковой выдачи опцию «Веб-версия», которая доступна наряду с привычными вариантами «Новости», «Изображения» и «Покупки». Потребность в этой опции возникла после многочисленных нововведений, которыми компания обогатила результаты поиска в последние годы — в новой вкладке показывается только текстовая выдача без изображений, предложений купить товары, карт и прочих элементов, которые Google считает полезными.

Чтобы вернуть актуальный вид выдачи, придётся выбрать вкладку «Все» — она ведёт на страницу с дополнительными элементами, которые компания добавила как для удобства пользователей, так и для своей выгоды. Разница станет ещё заметнее после того, как Google доверит формирование страницы с результатами поиска искусственному интеллекту Gemini.

На все эти дополнения жалуются и пользователи, которым не всегда удаётся пробраться сквозь дополнительные элементы к органическим результатам поиска, и владельцы сайтов, которые по той же причине получают меньше трафика. Ситуация осложняется проблемой поискового мусора: бесполезных ресурсов с чрезмерной поисковой оптимизацией, сайтов в большим объёмом сгенерированных ИИ текстов и поддельных интернет-магазинов, которые выманивают личные данные посетителей.

Новый вариант с «чистым» веб-поиском станет доступен для пользователей по всему миру в ближайшие два дня. Он позволит людям изучать органическую выдачу и избавит от потребности открывать другие поисковые системы, чтобы свериться с их результатами. Правда, в Google пока не уверены в собственном нововведении: пункт «Веб-версия» скрыт в выпадающем меню «Ещё».

Google выпустила Android TV 14 после двухлетнего перерыва — с ИИ Gemini и другими нововведениями

Впервые за два года Google выпустила крупное обновление ОС для умных телевизоров. После Android TV 12 вышла сразу Android TV 14: в прошлом году должна была выйти Android TV 13, но разработчик отказался от этой идеи и вместо стабильной новой версии платформы выпустил первую бета-версию Android TV 14.

 Источник изображения: Google

Источник изображения: Google

В Android TV 14 появились три режима потребления энергии. В большинстве случаев актуальным будет «Оптимизированный» (Optimized) режим, который позволяет выводить телевизор из режима ожидания при помощи голосового помощника или сетевой трансляции. «Режим пониженного энергопотребления» (Low energy mode) отключает все сетевые функции за исключением критических, когда телевизор находится в режиме ожидания. А «Режим повышенного энергопотребления» (Increased energy mode) позволяет даже в режиме ожидания поддерживать подключения Google Home, «Google Ассистента» и Cast.

Добавлены некоторые настройки специальных возможностей: коррекция цвета, расширенные параметры текста и альтернативные параметры навигации. Google не привела подробностей, как работают эти функции, но уточнила, что их можно быстро включать и выключать при помощи ярлыков. Оптимизирована функция «картинка в картинке» — разработчики могут включать её поддержку для своих приложений. В обновлённом варианте она должна была дебютировать в Android TV 13, хотя технически её поддерживают все телевизоры, начиная с Android 7 (2016). Разработчики пренебрегали этой функцией, потому что средний умный телевизор недостаточно производителен для её работы. В новой реализации она работает только на «квалифицированных» моделях, так что популярность функции среди разработчиков теперь может вырасти.

«Картинка в картинке» окажется полезной для приложений потоковых служб, видеоконференций и клиентов умного дома. К примеру, можно подать в угол телевизора трансляцию с камер видеонаблюдения. В новой реализации функции есть API «сохранения разборчивости», благодаря которому наложение одной картинки на другую не будет загораживать важного контента.

Появилась интеграция искусственного интеллекта Gemini. Он предложит «персонализированные» описания фильмов и сериалов на главном экране Android TV — вероятно, это означает упоминание лент или артистов, которые нравятся пользователю. ИИ также заполнит недостающие или непереведенные описания, и это намного полезнее.

Кардинальных изменений в дизайне Android TV 14 не отмечается, но Google выпустила бета-версию инструмента для разработки Compose for TV, ранее доступного в альфа-версии. Он включает набор предварительно настроенных модулей, которые ускорят разработку приложений и обеспечат единообразие интерфейса в приложениях Android TV. Первые телевизоры на Android TV 14 выйдут в этом году. К сожалению, с софтом для телевизоров дела обстоят хуже, чем с ПО для телефонов: производители редко выпускают крупные обновления для ТВ-устройств, и существующие модели под Android TV 12, вероятно, так и не получат Android TV 14.

В Android появится ИИ-защита от кражи — смартфон заблокируется, если его кто-то схватит и убежит

Компания Google выпустила вторую бета-версию своей будущей операционной системы Android 15, в которой реализовала ряд новых функций безопасности. Одна из них, например, позволяет определить момент, когда ваш телефон кто-то крадёт или выхватывает из рук, после чего устройство автоматически блокируется.

 Источник изображений: Google

Источник изображений: Google

Некоторые новые функции безопасности Android 15 также в перспективе появятся и в составе более старых версий операционной системы Android, что сделает их доступными для гораздо большего количества пользователей.

Новая функция Theft Detection Lock распознаёт необычные резкие движения мобильным устройством, которые могут указывать на то, что кто-то вырывает телефон из рук пользователя или хватает устройство со стола перед ним. Чтобы потенциальный злоумышленник не мог получить доступ к информации на устройстве, экран последнего автоматически блокируется. Система также следит за потенциальными попытками удалённого взлома устройства и автоматически отключает его от сети.

Google также предлагает новый способ удалённой блокировки экрана телефона, на тот случай если он попадёт в чужие руки. Для этого необходимо, например, с телефона друга, посетить сайт android.com/lock, где нужно ввести свой номер телефона и ответить на вопрос системы безопасности. После этого устройство будет заблокировано. Эти функции станут доступны с будущим обновлением сервисов Google Play для смартфонов под управлением Android 10 и более поздних версий.

В Android 15 также представлена новая функция безопасности «Личные пространства», которая позволяет размещать приложения и данные в отдельной скрытой области памяти смартфона, которую можно заблокировать с помощью уникального PIN-кода. Google также добавила защиту от принудительной перезагрузки устройства и сброса на заводские настройки. В этом случае система запросит учётные данные владельца смартфона при следующей настройке.

Функция Android Play Protect также получила обновление. Она проверяет, как приложения используют запрошенные разрешения на устройстве, чтобы отслеживать признаки фишинга и мошенничества. Информация о потенциально вредоносных приложениях отправляется в Google для дальнейшей проверки.

Релиз Android 15 ожидается этой осенью.

Google разберётся с OpenAI за использование YouTube для обучения ИИ

Генеральный директор Google Сундар Пичаи (Sundar Pichai) пообещал «разобраться», если выяснится, что OpenAI использовала контент YouTube при обучении модели искусственного интеллекта, которая может генерировать видео. Он сообщил, что Google располагает всеми необходимыми инструментами и технологиями, чтобы выяснить, соблюдает ли OpenAI правила. По информации газеты New York Times, OpenAI при обучении моделей ИИ использовала более миллиона часов видео с YouTube.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«Послушайте, я думаю, что это вопрос, на который они должны ответить, — заявил Пичаи в интервью CNBC, когда его спросили, может ли компания подать в суд. — Мне нечего добавить. У нас есть чёткие условия обслуживания. Мы взаимодействуем с компаниями и следим за тем, чтобы они следовали нашим условиям обслуживания. И мы во всем разберёмся».

В марте представитель OpenAI Мира Мурати (Mira Murati) в интервью Wall Street Journal сообщила, что она не уверена, являются ли видеоролики YouTube частью обучающих данных для модели ИИ Sora, представленной OpenAI ранее в этом году. По мнению Мурати, OpenAI опиралась на «общедоступные и лицензированные данные». Позже газета New York Times, ссылаясь на достоверные источники, утверждала, что OpenAI «записала более миллиона часов видео с YouTube».

Пичаи дал интервью сразу после основного доклада на конференции Google I/O, где компания анонсировала новые модели генеративного ИИ, в том числе Veo, способную создавать полноценные видеоролики. Пока эта модель доступна только пользователям, получившим одобрение от Google. Пичаи также анонсировал мультимодальный ИИ-помощник Project Astra, который должен появятся в нейросети Google Gemini позднее в этом году.

По словам Пичаи, Google сократила стоимость обслуживания моделей ИИ при веб-поиске на 80 %, используя собственные тензорные процессоры (TPU) и ускорители ИИ Nvidia. В ближайшее время компания начнёт отображать сводки ИИ в результатах поиска для всех пользователей в США. «У нас есть чёткое представление о том, как к этому подойти, и мы сделаем все правильно», — заявил Пичаи.

В марте стало известно, что Apple обсуждает идею использования модели ИИ Gemini в iPhone. По словам Пичаи, Google на протяжении многих лет поддерживает «прекрасное партнёрство с Apple». «Мы сосредоточились на предоставлении отличных возможностей для экосистемы Apple, — заявил он. — И поэтому мы продолжим работать над воплощением ИИ-технологий в жизнь». Сотрудничество с Apple настолько важно для Google, что поисковый гигант отдаёт Apple 36 % доходов от контекстной рекламы в браузере Safari.

 Источник изображения: Getty Images

Источник изображения: Getty Images

OpenAI на один день опередила мероприятие Google. Компания представила модель искусственного интеллекта под названием GPT-4o и показала, как пользователи мобильного приложения ChatGPT могут в формате естественного диалога общаться с ИИ-помощником, который «на лету» анализирует объекты, снимаемые камерой смартфона. OpenAI сообщила, что подписчики ChatGPT с тарифным планом Plus смогут опробовать предварительную версию нового голосового режима «в ближайшие недели».

Google показала прямо в рекламном ролике, как ИИ даёт вредный совет

На конференции I/O 2024 компания Google подчеркнула, что разработанный ей нейросети Gemini станут новым словом в поиске и ИИ-ассистентах. Однако одна из самых ярких демонстраций возможностей этой системы снова омрачилась недостатком, присущим всем современным большим языковым моделям — галлюцинациями, то есть дачей заведомо неверного ответа.

 Источник изображений: youtube.com/@Google

Источник изображений: youtube.com/@Google

В ролике «Поиск в эпоху Gemini» Google продемонстрировала видеопоиск — функцию поиска информации на основе видео. В качестве одного из примеров компания привела ролик с застрявшим рычажком перемотки плёнки на фотоаппарате и вопросом, почему этот рычажок не движется до конца. Gemini распознал видео, понял запрос и дал несколько советов по исправлению. И как минимум один из них оказался неверным.

ИИ порекомендовал «открыть заднюю крышку и аккуратно снять плёнку». И это, возможно, худшее, что можно сделать в данной ситуации. Потому что если открыть заднюю крышку плёночного фотоаппарата не в абсолютно тёмной комнате, плёнка засветится, и все сделанные снимки придут в негодность. Но на видео этот ответ подсвечен как наиболее подходящий.

Google уже не впервые публикует рекламный материал с фактической ошибкой — заведомо неверной информацией, которую даёт ИИ. В прошлом году чат-бот Bard сообщил, что первый снимок экзопланеты — планеты за пределами Солнечной системы — был получен космическими телескопом «Джеймс Уэбб» (JWST), хотя это не так.

Приложения на Android скоро позволят использовать лицо для управления курсором

На этой неделе Google объявила, что код проекта Project Gameface стал доступен разработчикам приложений для программной платформы Android. Это означает, что разработчики смогут интегрировать в свои продукты функцию управления курсором с помощью мимики лица и движений головы.

 Источник изображения: Solen Feyissa/unsplash.com

Источник изображения: Solen Feyissa/unsplash.com

Project Gameface был впервые представлен широкой публике на прошлогодней конференции Google I/O. Этот программный продукт использует камеру устройства для распознавания движений пользователя и сопоставления с базой данных MediaPipes’s Face Landmarks Detection API. К примеру, пользователь может открыть рот для перемещения курсора мыши или поднять брови вверх, чтобы выделить какую-то область экрана.

«Через камеру устройства решение непрерывно отслеживает мимику и движения головы, преобразуя их в интуитивное и персонализированное управление. Разработчики теперь могут создавать приложения, в которых пользователи будут иметь возможность настройки, изменяя выражения лица, плавность жестов, скорость движения курсора и др.», — говорится в сообщении Google.

Хотя изначально Gameface позиционировался как проект для геймеров, сейчас Google объявила о сотрудничестве с социальным фондом Incluzza из Индии, который занимается решением вопросов обеспечения доступности объектов и услуг различных сфер жизнедеятельности для людей с ограниченными возможностями. Ожидается, что такое сотрудничество поможет Google узнать больше о том, каким образом можно расширить возможности Gameface для использования его в других сферах, таких как работа, обучение и разные социальные ситуации.

SEO отправят на пенсию: поисковую выдачу Google сформирует и дополнит генеративный ИИ

На конференции разработчиков Google I/O 2024 поисковый гигант объявил, что выдачу по некоторым запросам будет формировать генеративный искусственный интеллект. Её дополнит компонент AI Overview — блок со сводкой информации по поисковому запросу, ранее доступный участникам программы тестирования Google AI Labs. До конца года расширится присутствие формата Search Generative Experience (SGE) — его аудитория достигнет миллиарда пользователей.

 Источник изображений: blog.google

Источник изображений: blog.google

«Не думаем, что всё должно ограничиться сводками ИИ. Есть возможности для внедрения генеративного ИИ в поиск, и одна из областей, которая очень волнует лично меня — это формирование страницы результатов, организованной с помощью ИИ», — пояснила глава подразделения Google Search Элизабет Хармон Рид (Elizabeth Harmon Reid). Пока Google будет показывать страницу результатов поиска нового образца, если станет понятно, что пользователь ищет вдохновения. В приведённом на конференции примере это поездка на юбилей в другой город. Вскоре новый формат также будет подключаться при поиске заведений общепита, рецептов блюд, а за ними последуют кинематограф, книги, отели, покупки и многое другое.

В случае с поездкой на юбилей в другой город придётся учесть разные аспекты: патио на крыше подойдёт не во всякое время года, а в качестве досуга можно полюбоваться архитектурой. При поиске ресторана Google покажет карусель с заведениями, продемонстрирует звёздный рейтинг, дополнит выдачу дискуссиями на Reddit и разбавит предложения дополнительной информацией: списками мест с живой музыкой, романтическими стейк-хаусами и материалами ресторанных критиков. А в нижней части страницы на демонстрации появилась кнопка «больше результатов из интернета» — возможно, это ссылка на страницу с традиционной выдачей.

Пока неясно, где на этих страницах будет размещаться реклама. И гендиректор Google Сундар Пичаи (Sundar Pichai) не дал прямого ответа, сохранится ли традиционная выдача при полномасштабном развёртывании инструментов ИИ. «Рад, что мы можем расширить спектр вариантов использования, в которых мы можем помочь пользователям поиска и Gemini. Перед вами примеры тех сложных вопросов, которые мы можем решить, как мы способны помочь в путешествии, интегрировать их с нашими продуктами и помочь более полно. Так что я рассматриваю это лишь с хорошей стороны», — пояснил глава компании.

С прошлого года Google тестирует технологию ИИ-поиска SGE (Search Generative Experience). Поначалу её аудитория была крайне ограниченной, со временем она постепенно расширялась; уже на этой неделе SGE смогут пользоваться «сотни миллионов пользователей» из США, а к концу года размер аудитории достигнет миллиарда человек. В компании предупредили, что новый формат не вытеснит традиционного поиска, да и владельцам сайтов беспокоиться не стоит: при тестировании SGE пользователи переходили на внешние ресурсы ещё чаще, чем со страницы традиционной поисковой выдачи. Google не планирует тотального насаждения ИИ, считая его полезным в работе со сложными запросами и разрозненной информацией.

Участвующий в поиске ИИ Gemini также окажется полезным в планировании. К примеру, если пользователь захочет составить программу питания семьи из четырёх человек на три дня, ИИ предложит ссылки на рецепты блюд. Gemini готов помочь в планировании и более масштабных мероприятий — поездок или вечеринок.

Гуглить можно будет с помощью видео: Google Lens научат работать с видео и аудио

Компания Google анонсировала скорое появление новой опции в своём инструменте визуального поиска Lens. Пользователи смогут осуществлять поиск в интернете по снятому видео. Прежде Google Lens мог обрабатывать запросы только со статическими изображениями, но уже скоро пользователи смогут записывать как видео, так и аудио, чтобы задать свой вопрос.

 Источник изображения: Google

Источник изображения: Google

Разработчики считают, что упомянутое нововведение может оказаться полезным во многих ситуациях, например, когда сломалось что-то в автомобиле или требуется получить дополнительную информацию о каком-то предмете, находящемся в поле зрения пользователя. Функция поиска информации по видео стала ещё одной точкой проникновения искусственного интеллекта в продукты Google.

Мультимодальный поиск сейчас имеет важное значение для компании, а обработка видеозапросов относится именно к этой категории. Когда Lens распознаёт изображения, то пользователю приходится давать уточнения, что именно его интересует на том или ином снимке. В случае с видео пользователь может, например, навести камеру на какую-то деталь автомобиля и просто спросить, что это и зачем оно здесь нужно. У Google есть всё необходимое, чтобы обрабатывать и отвечать на такие вопросы.

Сервис Lens является одним из ключевых элементов будущего поисковика Google из-за связи с инициативами компании в сфере искусственного интеллекта. Компания продолжает работать над созданием новых способов поиска информации в интернете, причём делает это не только чтобы пользователям было удобнее взаимодействовать с сервисом, но и для того, чтобы они делали это чаще. Касаемо Lens на данном этапе Google стремится сделать его менее похожим на компьютерный сервис и более похожим на всезнающего друга, которому всегда можно отправить видео с вопросом и получить ответ.

Google показала Project Astra — ИИ-ассистента будущего, который видит и понимает всё вокруг

Глава ИИ-подразделения Google DeepMind Демис Хассабис (Demis Hassabis) в рамках ежегодной конференции для разработчиков Google I/O рассказал о ранней версии того, что в компании называют универсальным ИИ-помощником. Речь идёт о системе под кодовым названием Project Astra, которая представляет собой мультимодальный ИИ-помощник, работающий в режиме онлайн. Он может «видеть» окружающее пространство, распознавать объекты и помогать в выполнении различных задач.

 Источник изображения: Google

Источник изображения: Google

«Я уже давно вынашивал эту идею. У нас будет этот универсальный помощник. Он мультимодальный, он всегда с вами<…> Этот помощник просто полезен. Вы привыкните к тому, что он всегда рядом, когда это нужно», — рассказал Хассабис во время презентации.

Вместе с этим Google опубликовала небольшое видео, в котором демонстрируются некоторые возможности ранней версии Project Astra. Одна из сотрудниц лондонского офиса Google активирует ИИ-помощника и просит его сообщить, когда он «увидит» что-либо, способное издавать звуки. После этого она начинает поворачивать смартфон и когда в объектив камеры попадает стоящая на столе колонка, алгоритм сообщает об этом. Далее она просит описать стоящие на столе в стакане цветные мелки, на что алгоритм отвечает, что с их помощью можно создавать «красочные творения». Далее камера телефона направляется на часть монитора, на котором в это время выведен программный код. Девушка спрашивает ИИ-алгоритм, за что именно отвечает эта часть кода и Project Astra практически моментально даёт верный ответ. Далее ИИ-помощник определил местонахождение офиса Google по «увиденному» из окна пейзажу и выполнил ряд других задач. Всё это происходило практически в режиме онлайн и выглядело очень впечатляюще.

По словам Хассабиса, Project Astra намного ближе предыдущих аналогичных продуктов к тому, как должен работать настоящий ИИ-помощник в режиме реального времени. Алгоритм построен на базе большой языковой модели Gemini 1.5 Pro, наиболее мощной нейросети Google на данный момент. Однако для повышения качества работы ИИ-помощника Google пришлось провести оптимизацию, чтобы повысить скорость обработки запросов и снизить время задержки при формировании ответов. По словам Хассабиса, последние шесть месяцев разработчики трудились именно над тем, чтобы ускорить работу алгоритма, в том числе за счёт оптимизации всей связанной с ним инфраструктуры.

Ожидается, что в будущем Project Astra появится не только в смартфонах, но и в смарт-очках, оснащённых камерой. Поскольку на данном этапе речь идёт о ранней версии ИИ-помощника, точные сроки его запуска в массы озвучены не были.

Google интегрирует искусственный интеллект Gemini в Gmail

На конференции Google I/O компания анонсировала интеграцию технологии искусственного интеллекта Gemini в почтовый сервис Gmail. ИИ сможет отвечать на вопросы пользователей, предлагать готовые ответы, а также выполнять рутинные задачи в фоновом режиме.

 Источник изображения: Google

Источник изображения: Google

Gmail является, пожалуй, самым популярным веб-интерфейсом для работы с электронной почтой в мире. Однако даже у такого удобного сервиса могут быть свои недостатки, связанные в первую очередь с тем, что работа с большим объёмом писем и вложений может быть весьма хаотичной и трудоёмкой.

Для решения этой проблемы инженеры Google решили интегрировать в Gmail систему искусственного интеллекта Gemini. Система сможет анализировать содержание писем, извлекать из них ключевую информацию и даже формулировать варианты ответов. По словам вице-президента Google Апарны Паппу (Aparna Pappu), Gemini способен взять на себя всю «тяжёлую работу» по структурированию хаотичных потоков писем.

Одна из ключевых особенностей ИИ заключается в возможности задавать вопросы непосредственно в цепочках писем. Например, пользователь может спросить у системы, какова была предложенная стоимость того или иного проекта, упомянутого в переписке. Gemini проанализирует соответствующие письма и выдаст точный ответ.

Ещё одна полезная функция заключается в автоматическом сравнении конкурирующих коммерческих предложений от разных компаний и формирование из них сводных таблиц. Такие таблицы Gemini может генерировать самостоятельно на основе данных из писем.

Помимо этого, искусственный интеллект избавит пользователей от необходимости вручную обрабатывать многочисленные входящие вложения к письмам, и займётся их организацией в облачном хранилище Google Drive, формируя из них также сводные таблицы. Это могут быть счета, чеки и другие вложения.

Наконец, Google анонсировала интеграцию в Gmail персональных чат-ботов, которые смогут выполнять поиск информации и решать задачи по запросам пользователей в различных сервисах Google — таких как почта, облачное хранилище и других. По словам разработчиков, все эти новшества должны сделать работу с электронной почтой более эффективной и приятной, избавив от однообразных рутинных операций.

Вместе с тем, интеграция Gemini в Gmail произойдёт не сразу. Сначала новые функции появятся в тестовом режиме Google Labs (этой осенью). А вот широкая публика сможет воспользоваться преимуществами ИИ в Gmail только в конце 2024 года или даже позже. При этом доступ к расширенным возможностям Gemini будет платным и составит $19,95 в месяц за каждого пользователя в рамках подписки Google AI Premium.

Google облегчила жизнь учащимся: визуальный поиск Circle to Search научился решать уравнения

Ранее в этом году Google представила функцию визуального поиска Circle to Search («Обведение для поиска»), которая позволит пользователям Android-смартфонов обвести интересующий фрагмент на экране смартфона и буквально в одно касание получить информацию о нём в поисковике. Теперь же разработчики расширяют возможности данного инструмента, делая его полезным для учащихся, у которых возникли трудности с выполнением заданий по математике или физике.

 Источник изображения: Google

Источник изображения: Google

Используя смартфон или планшет на базе Android учащиеся могут задействовать функцию Circle to Search для решения уравнений. Обведя интересующий пример, пользователь увидит всплывающее окно, в котором будут предоставлены подсказки касательно решения задачи. По заявлению Google, новая опция не сделает всю работу за пользователя, но поможет найти решение, если самостоятельно это сделать не удаётся.

Появление ИИ-алгоритмов и быстрый рост их популярности вызвали обеспокоенность среди представителей образовательной сферы. Они посчитали, что учащиеся смогут перекладывать всю работу на нейросети, что существенно скажется на качестве образования. Вероятно, чтобы избежать подобных обвинений Google не стала делать новую функцию таким образом, чтобы пользователь получал готовое решение.

Отметим также, что позднее в этом году функция Circle to Search станет полезна при решении сложных математических уравнений и задач, в том числе с формулами, диаграммами, графиками и др. Для реализации новых возможностей визуального поиска Circle to Search разработчики используют ИИ-модель LearnLM.

Google представил сверхбыструю ИИ-модель Gemini 1.5 Flash

Google продолжает расширять свою линейку моделей искусственного интеллекта Gemini. На стартовавшей вчера конференции Google I/O компания анонсировала новую модель, ориентированную на задачи, в которых требуется высокая скорость — Gemini 1.5 Flash. Модель способна обрабатывать данные практически молниеносно, без задержек.

 Источник изображения: Google

Источник изображения: Google

По словам вице-президента Google Labs Джоша Вудворда (Josh Woodward), Gemini 1.5 Flash оптимизирована для «узких, приоритетных задач, где требуется низкая задержка». Нейросеть способна обрабатывать текст, изображения и видео с высокой скоростью. Это делает её идеальной для приложений, требующих мгновенных ответов в режиме реального времени, например для общения с пользователями или клиентами, или мгновенной генерации простых изображений, сообщает издание The Verge.

В то же время для задач, не требующих молниеносных ответов, лучше подойдет обновленная модель Gemini 1.5 Pro. Она может анализировать большие объемы текста, делать обобщения и переводы. Gemini 1.5 Pro также получила расширенные возможности машинного логического рассуждения и написания программного кода. Обе модели используют контекстное окно в 1 миллион токенов, что позволяет учитывать больше информации при генерации ответов. Для сравнения, контекстное окно GPT-4 составляет 128 000 токенов.

Помимо AI Studio, Gemini 1.5 Pro скоро станет доступна и в Google Workspace. Пользователи смогут использовать возможности модели в почте Gmail и PDF-документах. А подписчики расширенной версии Gemini Advanced получат доступ к модели на 35 языках.

Обе модели будут доступны через Google AI Studio и Gemini API в более чем 200 странах, включая Европейский Союз, Великобританию и Швейцарию.

Google натравит на телефонных мошенников нейросеть Gemini Nano

Существуют разные способы борьбы с телефонным мошенничеством, но далеко не все из них эффективны. Компания Google решила подойти к решению этого вопроса с технологической точки зрения и реализовать функцию определения мошеннических звонков на основе большой языковой модели Gemini Nano, которая может полностью работать на пользовательском устройстве.

 Источник изображения: Google

Источник изображения: Google

Функция выявления потенциально мошеннических звонков появится в будущей версии Android. В её основе лежит нейросеть Gemini Nano, которая помогает эффективно выявлять «модели разговора, обычно связанные с мошенничеством» в режиме реального времени. К примеру, часто телефонные мошенники выдают себя за сотрудников банков и пытаются выманить у жертв конфиденциальные платёжные данные. ИИ-алгоритм может определять такое подозрительное поведение, после чего на экране смартфона будет появляться предупреждение о том, что звонок потенциально является мошенническим.

Конкретные сроки запуска новой функции для Android озвучены не были. Google лишь сообщила, что она появится в будущем и будет основана на алгоритме Gemini Nano. Однако уже сейчас известно, что Google не будет навязывать инструмент выявления мошеннических звонков, поэтому пользователи при необходимости смогут отключить данную опцию. Это хорошая новость, поскольку хоть Gemini Nano и работает на устройстве пользователя и не передаёт данные на удалённые серверы Google, алгоритм всё же будет прослушивать все разговоры пользователя.

Google представила ИИ Veo для создания реалистичных видео — Full HD и больше минуты

Около трёх месяцев прошло с тех пор как OpenAI представила генеративную нейросеть Sora, которая может создавать реалистичное видео по текстовому описанию. Теперь у Google есть чем ответить: в рамках конференции Google I/O была анонсирована нейросеть Veo. Алгоритм может генерировать «высококачественные» видеоролики с разрешением Full HD продолжительностью более минуты с применением разных визуальных и кинематографических стилей.

 Источник изображения: Google

Источник изображения: Google

В пресс-релизе Google сказано, что алгоритм Veo обладает «продвинутым пониманием естественного языка», что позволяет ИИ-модели понимать кинематографические термины, такие как «таймлапс» или «съёмка пейзажа с воздуха». Пользователи могут добиться желаемого результата с помощью не только текстовых подсказок, но также «скормить» ИИ изображения или видео, получая в конечном счёте «последовательные и целостные» ролики, в которых на протяжении всего времени движения людей, животных и объектов выглядят реалистично.

Генеральный директор ИИ-подразделения Google DeppMind Демис Хассабис (Demis Hassabis) заявил, что пользователи могут корректировать генерируемые ролики с помощью дополнительных подсказок. Кроме того, Google изучает возможность интеграции дополнительных функций, которые позволят Veo создавать раскадровки и более продолжительные видео.

Несмотря на сегодняшний анонс Veo, обычным пользователям придётся какое-то время подождать, прежде чем алгоритм станет общедоступным. На данном этапе Google приглашает к тестированию предварительной версии нейросети ограниченно количество создателей контента. Компания хочет поэкспериментировать с Veo, чтобы определить, каким образом следует осуществлять поддержку авторов контента и развивать сотрудничество с ними, давая творческим людям право голоса в разработке ИИ-технологий Google. Некоторые функций Veo в ближайшие несколько недель станут доступны ограниченному числу пользователей сервиса VideoFX, которые подадут заявки на участие в тестировании предварительной версии алгоритма. В будущем Google намерена также добавить некоторые функции Veo в YouTube Shorts.

window-new
Soft
Hard
Тренды 🔥
Take-Two официально уточнила, когда выйдет GTA VI 23 мин.
3Logic локализует в России китайскую платформу Gitee и перенесёт 100 тыс. open source проектов 37 мин.
Ghost of Tsushima наконец вышла на ПК, а оверлей PlayStation звёзд с неба не хватает 2 ч.
Microsoft PC Manager начал настоятельно рекомендовать поисковик Bing 3 ч.
В TikTok появились 60-минутные видео, но загружать их могут не все 3 ч.
Manor Lords превзошла «самые смелые» ожидания издателя — игра достигла новой вершины продаж 4 ч.
Датамайнер поделился подробностями следующей игры Valve — это героический PvP-шутер в мире фэнтезийного стимпанка 5 ч.
Ubisoft раскрыла стратегию на ближайшее будущее, но Watch Dogs в нём места не нашлось 6 ч.
Fallout 4 оказалась самой продаваемой игрой в Европе за апрель — спустя почти девять лет после релиза 7 ч.
Meta грозят огромные штрафы: ЕС расследует, как обеспечивается безопасность детей в Facebook и Instagram 9 ч.
Новая статья: Обзор 57-дюймового игрового Mini-LED VA-монитора Samsung Odyssey Neo G95NC: с запасом на будущее 31 мин.
Шестое поколение ускорителей Google TPU v6 готово к обучению ИИ-моделей следующего поколения 2 ч.
TSMC запустит массовое производство по оптимизированному 3-нм техпроцессу N3P уже в этом году 3 ч.
В Индии испытали напечатанный на 3D-принтере ракетный двигатель 6 ч.
Сверхпрочный смартфон IIIF150 Air2 Ultra получил тонкий корпус, чип Dimensity 7050 и 64-Мп камеру с ночным видением 6 ч.
Чип Apple M4 в iPad Pro протестировали под жидким азотом — на 28 % быстрее M3 Max, но только в одноядерном тесте 6 ч.
«Хаббл» сфотографировал космический невод — линзовидную галактику NGC 4753 7 ч.
Представлен смартфон Meizu 21 Note с чипом Snapdragon 8 Gen 2, Wi-Fi 7 и ценой $360 7 ч.
Fujifilm представила GFX 100S II — среднеформатную беззеркалку с ИИ за $4999 7 ч.
G.Skill представила комплекты памяти Ripjaws M5 RGB со скоростью до 6400 МТ/с и объёмом до 96 Гбайт 8 ч.