В края на I/O, годишната конференция за разработчици на Google в Shoreline Amphitheatre в Mountain View, главният изпълнителен директор на Google Сундар Пичай разкри, че компанията е казала „AI“ 121 пъти. Това по същество беше същината на двучасовия основен доклад на Google — въвеждане на AI във всички приложения и услуги на Google, използвани от повече от два милиарда души по света. Ето всички основни актуализации, обявени от Google на събитието.
Актуализации на Gemini 1.5 Flash и Gemini 1.5 Pro
Google обяви изцяло нов AI модел, наречен Gemini 1.5 Flash, който според него е оптимизиран за скорост и ефективност. Flash се намира между Gemini 1.5 Pro и Gemini 1.5 Nano, най-малкият модел на компанията, който работи нативно на устройството. Google каза, че е създал Flash, защото разработчиците искат по-лек, по-евтин модел от Gemini Pro за изграждане на приложения и услуги, захранвани с изкуствен интелект, като същевременно запазват някои неща като контекстен прозорец с дължина милиони знака, който отличава Gemini Pro от конкурентните модели. По-късно тази година Google ще удвои контекстния прозорец на Gemini до 2 милиона токена, което означава, че ще може да обработва 2 часа видео, 22 часа аудио и повече от 60 000 реда код или повече от 1,4 милиона думи наведнъж . времето. .
Проект Астра
Google показа Project Astra, ранна версия на глобален AI-задвижван асистент, който Демис Хасабис, главен изпълнителен директор на DeepMind на Google, каза, че е версията на Google на AI агент, „който може да бъде полезен в ежедневието“.
Във видеоклип, който според Google е заснет наведнъж, потребител на Astra се движи из офиса на Google в Лондон, държейки телефона си и насочвайки камерата към различни неща – високоговорител, някакъв код на бяла дъска, извън прозорец – и води естествен разговор с приложението за това как изглежда. И в един от най-впечатляващите моменти във видеото, тя правилно казва на потребителя къде е оставила очилата си преди, без потребителят изобщо да вдигне очилата си.
Видеото завършва с изненада – когато потребителят намери липсващите очила и ги сложи, научаваме, че те имат вградена система от камери и могат да използват Project Astra, за да водят безпроблемно разговор с потребителя, което може да предполага, че Google може да работи върху конкурент на умните очила Ray Ban на Meta.
Попитайте Google Images
Google Photos вече беше умен, когато ставаше въпрос за търсене на конкретни снимки или видеоклипове, но с AI Google издига нещата на следващото ниво. Ако сте абонат на Google One в САЩ, ще можете да зададете на Google Photos сложен въпрос като „Покажете ми най-добрата снимка от всеки национален парк, който сте посетили“, когато функцията бъде въведена през следващите няколко месеца. Google Photos ще използва вашата GPS информация, както и собствената си преценка кое е „най-доброто“, за да ви предостави опции. Можете също да поискате от Google Photos да генерира надписи за публикуване на снимки в социалните медии.
Вижте и си представете 3
Новите двигатели на Google за създаване на медии, задвижвани от AI, се наричат Veo и Imagine 3. Veo е отговорът на Google на Sora на OpenAI. Google каза, че може да произвежда „висококачествени“ 1080p видеоклипове, които могат да продължат „повече от минута“, и може да разбере кинематографични концепции като снимки с изтичане на времето.
Междувременно Imagen 3 е генератор на текст към изображение, за който Google твърди, че обработва текст по-добре от своя предшественик Imagen 2. Резултатът е най-висококачественият модел на компанията за текст към изображение с „удивително ниво на детайлност“ за „реалистично , реалистични изображения.“ ” и по-малко артефакти — което по същество го противопоставя на DALLE-3 на OpenAI.
Големи актуализации на Google Търсене
Google прави големи промени в начина, по който функционира търсенето. Повечето от актуализациите, обявени днес, са като възможността да задавате наистина сложни въпроси („Намерете най-добрите студия за йога или пилатес в Бостън и вижте подробности за предложенията и времето за разходка от Beacon Hill.“) и да използвате търсенето, за да планирате храна и ваканции. Ще бъде достъпно само ако се абонирате за Search Labs, платформата на компанията, която позволява на хората да изпробват бета функции.
Но голямата нова функция, която Google нарича AI Overviews и която компанията тества от една година, най-накрая се разпространява сред милиони хора в Съединените щати. Google Search вече ще представя генерирани от AI отговори в горната част на резултатите по подразбиране и компанията казва, че ще направи функцията достъпна за повече от един милиард потребители по света до края на годината.
Gemini на Android
Google интегрира Gemini директно в Android. Когато Android 15 бъде пуснат по-късно тази година, Gemini ще знаят какво приложение, снимка или видео възпроизвеждате и ще могат да го плъзгат като наслагване и да му задават въпроси, свързани с контекста. Къде остава Google Assistant, който вече прави това? Кой познаваш! Google изобщо не повдигна това по време на днешната основна бележка.
Имаше и куп други актуализации. Google каза, че ще добави цифрови водни знаци към генерирани от AI видеоклипове и текстове, ще направи Gemini достъпен в страничния панел в Gmail и Документи, ще поддържа виртуален колега, захранван от AI в Workspace, ще слуша телефонни обаждания и ще открива дали наистина сте измамен време и много повече.
Следете всички новини от Google I/O 2024 на живо тук!
More Stories
Съобщава се, че Apple работи върху 90Hz Studio Display, iMac и iPad Air
Новото музикално приложение на Nintendo е клонинг на YouTube Music
2027 Pixel Tablet ‘3’ може да има втори USB-C порт