Trzydzieści tysięcy osób wzięło udział w Google Cloud Next ‘24, które w tym roku zdominował temat sztucznej inteligencji. Co nowego ma do zaoferowania chmura Google Cloud?
W Las Vegas, gdzie odbywała się impreza Google Cloud Next ‘24 pokazano sporo nowości. Mimo że od ostatniej edycji konferencji minęło niecałe osiem miesięcy, to Google miał się czym pochwalić, jak chociażby ponad tysiącem zmian, udoskonaleń produktów działających w ramach Google Cloud i Google Workspace.
Gemini – nowy kierunek sztucznej inteligencji
Samo generatywne AI przeszło ponad milion cyklów treningowych, a chmura od Googla mogła pochwalić się najszybszym wzrostem wśród wszystkich chmur publicznych. Sztuczna inteligencja sygnowana przez Google znalazła swoje zastosowanie w produktach i usługach największych firm, takich jak McDonalds, Deutsche Bank, czy sławna Mayo Clinic.
Google Cloud Next ‘24 to również pierwsze tak duże wydarzenie po grudniowej premierze Gemini, największego modelu AI w historii firmy. Podczas konferencji pokazano wersję 1.5 Pro, o dużo większej wydajności, która jest w stanie obsłużyć w trybie ciągłym milion tokenów.
A3 Mega VMs
Aby Gemini AI mogło osiągnąć swoją wydajność, konieczne było stworzenie nowego procesora graficznego, A3 Mega VMs, o dwukrotnie większej przepustowości sieci niż posiadały instancje A3. Zapowiedziano również wsparcie dla najnowszych procesorów graficznych NVIDIA GB200 NVL72, ale to już w 2025 roku.
Hyperdisk ML
Nowością już dostępną do testowania jest Hyperdisk ML, stworzony do obsługi blokowej pamięci masowej nowej generacji i zoptymalizowany pod kątem AI. Przyspiesza on ładowanie modeli nawet 11,9 razy w porównaniu do konkurencji, a przepustowość bywa stukrotnie większa.
Axion – CPU od Google oparty na Arm
Tymczasem Google ogłosił swój własny procesor dedykowany do centrum danych. Axion, bo tak się będzie nazywała oparta na architekturze Arm jednostka centralna (CPU), która zdaniem twórców będzie bardziej wydajna niż chipy x86 czy układy Arm ogólnego przeznaczenia w chmurze.
Model Garden w Vertex AI
Sporą część konferencji Google poświęciło platformie Vertex AI, w której za pośrednictwem tzw. Model Garden mamy dostęp do ponad 130 modeli, w tym najnowszej wersję Gemini, Claude od Anthropic oraz popularnych, ogólnodostępnych modeli, takich jak Llama, Gemma czy Mistral.
Aby ułatwić developerom pracę, Google zadbało o integrację z partnerami, m.in. Hugging czy Replit.
Kolejnym udogodnieniem, o którym warto wspomnieć jest Vertex AI Agent Builder, pozwalający w szybki i łatwy sposób tworzyć agentów.
Nowością jest również Gemini Cloud Assist, który pomaga w całym cyklu życia aplikacji, ułatwiając projektowanie, obsługę, rozwiązywanie problemów i optymalizację aplikacji.
Odświeżona sztuczna inteligencja od Google jest w stanie tworzyć generatywnych agentów, czyli inteligentne podmioty, które mogą porozumiewać się zarówno z ludźmi, jak i między sobą. Wykorzystuje je m.in. Goldman Sachs, lider technologiczny w branży finansowej.
Obecny na konferencji prezes Goldman Sachs, David Solomon potwierdził, że jego firma bada jak wykorzystać możliwości sztucznej inteligencji do m.in. analizy sentymentu na podstawie dokumentów korporacyjnych, czy też interpretacji informacji np. o zarobkach.
Sztuczna inteligencja od Google Cloud znalazła już zastosowanie m.in. w firmie Mercedes-Benz, której prezes, Ola Källenius, był również jednym z gości Google Cloud Next ‘24. Potwierdził, że Mercedes korzysta z rozwiązań AI oferowanych przez Google Cloud w różnych punktach styku z klientem, od asystenta sprzedaży w centrach telefonicznych, aż do optymalizacji działań marketingowych.
Gemini w Google Workspace
Sztuczna inteligencja dostępna jest już od pewnego czasu również do Google Workspace, gdzie asystuje i zwiększa produktywność m.in. w aplikacji Gmail, przy tworzeniu dokumentów czy arkuszy kalkulacyjnych. Nowym obszarem, w którym Gemini może ułatwić życie pracownikom jest integracja z Google Meets, w którym pomaga przy tworzeniu notatek czy też tłumaczeniu symultanicznym.
Zupełnie nowym rozwiązaniem jest aplikacja Google Vids pomagająca tworzyć materiały wideo oparte na AI. Udostęniono również Imagine 2.0, najbardziej zaawansowaną technologię zmiany tekstu na obraz, która pomaga firmom tworzyć obrazy odpowiadające konkretnym wymaganiom płynącym z ich brandbooków. W wersji testowej pojawiło się „Text-to-Live Image”, które pozwala na tworzenie obrazów i animacji na podstawie wpisanych haseł.
Zabieramy się za testowanie nowych rozwiązań i czekamy na kolejną edycję Google Cloud Next.