Google I/O ’24 Élő Közvetítés
Tartalomjegyzék
 [mutasd]

A Google Keynote eseményének bevezető része, amely a Google I/O 2024 konferencia keretében zajlott, magával ragadó és informatív nyitánnyal indult. Az esemény célja az volt, hogy bemutassa a Google legújabb technológiai fejlesztéseit és vízióit, amelyek alakítják a jövőt. A Google I/O konferencia hagyományosan a világ egyik legfontosabb technológiai eseménye, ahol fejlesztők, szakértők és technológiai rajongók gyűlnek össze, hogy megismerjék a legújabb innovációkat.

Google I/O ’24 élő közvetítés

Az eseményt Sundar Pichai, a Google vezérigazgatója nyitotta meg, aki üdvözölte a nézőket a világ minden tájáról. Pichai köszöntő beszédében kiemelte a Google elkötelezettségét az innováció és a technológiai fejlődés iránt, hangsúlyozva, hogy a vállalat célja az, hogy az AI és egyéb fejlett technológiák segítségével jobbá tegye az emberek életét.

Pichai beszélt a Google I/O történetéről és annak jelentőségéről, megemlítve, hogy az esemény mindig is az új ötletek és technológiai áttörések bemutatásának egyik legfontosabb platformja volt. Hangsúlyozta, hogy a 2024-es Google I/O különösen fontos, mivel a mesterséges intelligencia (AI) és az egyéb technológiai fejlesztések soha nem látott ütemben fejlődnek, és a Google elkötelezett amellett, hogy ezek a technológiák mindenki számára elérhetővé váljanak.

A Google I/O ’24 hangulata és tematikája

Az idei Google I/O különleges hangsúlyt fektetett a fenntarthatóságra és az etikus technológiai fejlesztésekre. Pichai kiemelte, hogy a Google célja nemcsak az innováció előmozdítása, hanem a technológia felelősségteljes és fenntartható alkalmazása is. Az esemény központi témái között szerepeltek a mesterséges intelligencia legújabb fejlesztései, az adatvédelem és a felhasználói biztonság, valamint a környezetbarát technológiák.

Pichai hangsúlyozta, hogy a Google számára kiemelten fontos, hogy a technológia mindenki számára hozzáférhető legyen, függetlenül a földrajzi helyzettől vagy a gazdasági körülményektől. Beszélt a Google globális kezdeményezéseiről is, amelyek célja a digitális szakadék áthidalása és a technológiai hozzáférés javítása a fejlődő országokban.

A Közönség és a résztvevők

A bevezető szakaszban Pichai köszönetet mondott a globális közösségnek, beleértve a fejlesztőket, partnereket és felhasználókat, akik nélkülözhetetlenek a Google innovációs ökoszisztémájának fenntartásához. Kiemelte, hogy az együttműködés és a közösségi munka a kulcsa annak, hogy a Google továbbra is élen járjon a technológiai fejlődésben.

Az élő közvetítés során a világ minden tájáról csatlakoztak résztvevők, akik virtuálisan követhették a bemutatókat és az előadásokat. Ez a globális elérés lehetővé tette, hogy még többen részesüljenek a Google I/O élményében, és inspirációt nyerjenek a bemutatott technológiai újításokból.

Zenei nyitány

A Google Keynote eseményének zenei nyitánya egy izgalmas és kreatív bemutatóval kezdődött, amely Marc Rebillet improvizációs zenei előadásából és a Music FX DJ technológia bemutatásából állt. Ez a rész nemcsak szórakoztató volt, hanem rávilágított arra is, hogyan használható a mesterséges intelligencia és a fejlett technológia a zenei produkciókban.

Marc Rebillet improvizációs zenei előadása

Marc Rebillet, a híres improvizációs zenész, aki különleges stílusáról és energikus előadásairól ismert, lenyűgöző performansszal nyitotta meg az eseményt. Rebillet élőben mutatta be, hogyan lehet kreatívan felhasználni a technológiát a zenei alkotásban, különböző hangszereket és zenei stílusokat kombinálva.

Előadása során Rebillet különféle hangszereket használt, beleértve a billentyűzetet, dobokat és különféle elektronikus eszközöket, hogy létrehozza a saját, egyedi hangzását. Az improvizáció során valós időben készített zenei loopokat, amelyekkel dinamikus és változatos zenei kompozíciókat hozott létre. Az előadás egyik legérdekesebb része az volt, amikor Rebillet a közönséget is bevonta, megkérdezve őket, hogy milyen hangszereket és stílusokat szeretnének hallani. Ez az interaktív elem tovább fokozta az előadás élményét és bemutatta, hogyan lehet a közönséggel együttműködve még kreatívabb zenét alkotni.

Music FX DJ technológia bemutatása

Az előadás következő részében Rebillet bemutatta a Google új zenei technológiáját, a Music FX DJ-t. Ez a generatív mesterséges intelligencia eszköz képes a semmiből létrehozni zeneszámokat a felhasználói utasítások alapján. A Music FX DJ különböző zenei elemeket és stílusokat kombinálva hoz létre egyedi zenéket, amelyek teljesen testre szabhatók a felhasználó igényei szerint.

Rebillet élőben demonstrálta a Music FX DJ képességeit, bemutatva, hogyan lehet különböző hangszereket és stílusokat keverni. Először egy violaszólamot adott hozzá a zenéjéhez, majd hip hop ütemekkel és elektronikus hangokkal gazdagította a kompozíciót. Az előadás során bemutatta, hogyan lehet gyorsan és könnyedén módosítani a zeneszámokat, például tempót váltani vagy új hangszereket hozzáadni.

A Music FX DJ technológia különlegessége, hogy lehetővé teszi a felhasználók számára, hogy bármilyen zenei stílust és hangulatot létrehozzanak, anélkül, hogy mély zenei tudásra vagy drága felszerelésre lenne szükségük. A technológia forradalmasíthatja a zenei produkciót, mivel a zenészek és producerek könnyedén kísérletezhetnek új ötletekkel és hangzásokkal, gyorsan létrehozva professzionális minőségű zeneszámokat.

A közönség reakciói

A közönség rendkívül lelkes volt az előadás alatt, amit a folyamatos taps és éljenzés is bizonyított. Rebillet karizmatikus előadása és a Music FX DJ technológia lenyűgöző képességei nagy hatással voltak a nézőkre, akik élőben követhették a zenei produkció folyamatát. Az interaktív elemek és az élő improvizáció különleges élményt nyújtottak a közönség számára, akik így közvetlenül láthatták, hogyan lehet a technológiát kreatívan és innovatívan felhasználni a zenei alkotásban.

E rész lényege röviden összefoglalva

A Google Keynote bevezető része erőteljes és inspiráló kezdést jelentett a Google I/O 2024 konferencián, bemutatva a Google elkötelezettségét az innováció és technológiai fejlődés iránt. Sundar Pichai beszéde, valamint Marc Rebillet improvizációs zenei előadása és a Music FX DJ technológia bemutatása mind hozzájárultak ahhoz, hogy a résztvevők betekintést nyerjenek a Google legújabb fejlesztéseibe és jövőbeli terveibe. Az esemény hangsúlyozta a fenntarthatóság, az etikai technológia és az inkluzív hozzáférés fontosságát, miközben bemutatta, hogy a Google továbbra is vezető szerepet kíván betölteni a technológiai innováció terén. A közönség lelkes reakciói és az interaktív bemutatók egyértelműen jelezték az új zenei technológiák iránti nagy érdeklődést és izgatottságot.

Google Gemini bemutatása

A Google Keynote harmadik része a Google Gemini, a vállalat legújabb mesterséges intelligencia fejlesztésének bemutatására összpontosított. A Gemini egy rendkívül fejlett, multimodális AI modell, amely képes szöveg, kép, videó és kód kezelésére, és célja, hogy forradalmasítsa a különböző Google termékeket és szolgáltatásokat.

Sundar Pichai nyitóbeszéde

Sundar Pichai, a Google vezérigazgatója nyitóbeszédében kiemelte, hogy a Google több mint egy évtizede fektet be az AI fejlesztésekbe. A Gemini egy új generációs modell, amely képes bármilyen inputot bármilyen outputtá alakítani, és számos különböző multimodális benchmarkon állította fel az új mércét.

Gemini 1.5 Pro bemutatása

A Gemini első modelljei rendkívül sikeresek voltak, és a Gemini 1.5 Pro verzió bemutatása újabb áttörést jelentett. Ez a modell hosszú kontextusokat képes kezelni, akár 1 millió tokent is, ami jelentősen meghaladja a korábbi modellek kapacitását. A Gemini 1.5 Pro számos területen nyújt kiemelkedő teljesítményt, beleértve a kódolást, a szövegek fordítását és a komplex problémák megoldását.

Gemini 1.5 Flash bemutatása

A Gemini 1.5 Pro mellett a Google bemutatta a Gemini 1.5 Flash modellt is, amely könnyebb és költséghatékonyabb változat, optimalizálva az alacsony késleltetésű és hatékonyságot igénylő feladatokra. A Flash modell is rendelkezik a multimodális képességekkel és a hosszú kontextus kezelésével, így széles körben alkalmazható különböző AI feladatokra.

Gemini és a Google termékek integrációja

A Gemini modellek már több mint 1,5 millió fejlesztő által használtak, és számos Google termékbe beépültek, beleértve a Keresést, a Fotókat, a Workspace-t és az Androidot. Az AI segítségével a felhasználók új módokon kereshetnek és kaphatnak válaszokat komplex kérdésekre, például fotók alapján történő kereséssel vagy hosszabb és bonyolultabb kérdések megválaszolásával.

Google Search újítások

A Gemini által támogatott keresési élmény drámai fejlődésen ment keresztül. Az AI Overviews funkcióval a felhasználók részletesebb és komplexebb keresési eredményeket kapnak, amelyek több perspektívát és mélyebb betekintést nyújtanak. Az AI Overviews már elérhető az Egyesült Államokban, és hamarosan más országokban is bevezetésre kerül.

Google Photos újítások

A Google Photos felhasználói mostantól egyszerűen kérdezhetnek fotóik alapján. A Gemini segítségével a Photos képes felismerni a gyakran megjelenő autókat, triangulálni, melyik a felhasználóé, és megadni a rendszámot. Az új „Ask Photos” funkcióval a felhasználók mélyebb módon kereshetnek az emlékeik között, például megkérdezhetik, mikor tanult meg úszni a lányuk, és hogyan fejlődött az úszásban.

Hosszú kontextus és multimodalitás

A Gemini hosszú kontextus kezelése és multimodális képességei lehetővé teszik, hogy több száz oldalnyi szöveget, órányi hangot, videót vagy akár teljes kódtárakat dolgozzon fel. Ezáltal a felhasználók sokkal részletesebb és összetettebb információkat kaphatnak, amelyek segítenek a mélyebb megértésben és a problémamegoldásban.

Fejlesztői és felhasználói tapasztalatok

A bemutató során különböző fejlesztők és felhasználók osztották meg tapasztalataikat a Gemini használatáról. Elmondták, hogyan segítette őket a modell a kód hibáinak megtalálásában, kutatási anyagok elemzésében és videók kereshető adatbázissá alakításában. Ezek a visszajelzések rávilágítottak arra, hogy a Gemini milyen sokoldalúan alkalmazható a mindennapi élet különböző területein.

E rész lényege röviden összefoglalva

A Google Keynote harmadik része átfogó bemutatót nyújtott a Gemini AI modellekről és azok képességeiről. A Gemini 1.5 Pro és Flash modellek bemutatása mellett a Google számos termékének integrációját is szemléltette, megmutatva, hogyan forradalmasíthatják ezek a fejlesztések a keresést, a fotók kezelését és a felhasználói élményt. A Gemini multimodális és hosszú kontextus kezelési képességei új lehetőségeket nyitnak meg az AI alkalmazások terén, és a bemutatott példák alapján egyértelmű, hogy a Google elkötelezett a technológiai innováció és az AI fejlődése iránt.

Google Workspace újítások

A Google Keynote negyedik része a Google Workspace platformra és annak legújabb AI-fejlesztéseire összpontosított. Az előadások bemutatták, hogyan integrálja a Google a Gemini AI-t a Workspace termékeibe, hogy növelje a felhasználói hatékonyságot és megkönnyítse a mindennapi munkafolyamatokat.

Gemini 1.5 Pro és Workspace integráció

Sundar Pichai bejelentette, hogy a Gemini 1.5 Pro elérhetővé válik a Workspace felhasználók számára, ezzel új szintre emelve a termelékenységet. A Gemini 1.5 Pro hosszú kontextus kezelési képessége lehetővé teszi, hogy a felhasználók komplex problémákat oldjanak meg és mélyebb betekintést nyerjenek a munkafolyamataikba. Ez a modell képes akár 1 millió token kontextus kezelésére, ami jelentősen növeli a dokumentumok és e-mailek elemzésének hatékonyságát.

Új Workspace képességek

A Workspace integráció részeként számos új funkciót mutattak be, amelyek célja a felhasználói élmény és a produktivitás javítása. Ezek közé tartoznak a következők:

  1. Summarize (Összegzés)
  • A felhasználók egyetlen gombnyomással összefoglalhatják a hosszú e-mail szálakat, dokumentumokat és egyéb anyagokat. Ez különösen hasznos lehet az üzleti kommunikációban, ahol gyakran nagy mennyiségű információval kell dolgozni.
  1. Q&A (Kérdések és válaszok)
  • A Q&A funkcióval a felhasználók gyorsan választ kaphatnak a beérkező e-mailek és dokumentumok alapján felmerülő kérdéseikre. Például megkérdezhetik, mikor érkeznek meg a rendelt termékek vagy mikor kezdődik egy esemény.
  1. Automations (Automatizációk)
  • Az automatizációk lehetővé teszik a felhasználók számára, hogy bizonyos munkafolyamatokat teljesen automatizáljanak. Például a rendszer automatikusan rendszerezheti a beérkező számlákat és generálhat egy költségvetési táblázatot.

Virtuális munkatársak (pl. Chip) bemutatása

A bemutató során a Google egy új koncepciót is ismertetett, amely a virtuális munkatársak bevezetésére épül. Ezek az AI-alapú munkatársak, mint például Chip, képesek különböző feladatokat ellátni, mint például projektek nyomon követése, információk rendszerezése és kontextus biztosítása a csapat számára. A virtuális munkatársak integrálása a Google Chatbe és egyéb Workspace alkalmazásokba jelentősen növeli a csapat hatékonyságát és együttműködési képességeit.

Google Chat és virtuális munkatársak

A bemutató során Tony Vincent, a Google egyik szakértője, élő demót tartott a virtuális munkatársak működéséről. Tony bemutatta, hogyan lehet egy virtuális munkatársat, például Chip-et beállítani és használni a Google Chatben. Chip képes volt gyorsan keresni a beszélgetések között, projektinformációkat előkeresni és összefoglalni a csapat számára.

Automatikus folyamatok a Workspace-ben

A bemutató egyik legizgalmasabb része az automatikus folyamatok bemutatása volt. Aparna Pappu bemutatta, hogyan lehet a Gemini segítségével automatizálni a mindennapi munkafolyamatokat. Például egy szabadúszó fotós e-mailjeit és csatolmányait a rendszer automatikusan rendszerezheti, és egy költségvetési táblázatba integrálhatja a szükséges információkat. Ez a funkció lehetővé teszi, hogy a felhasználók több időt fordítsanak a kreatív munkára, és kevesebbet az adminisztratív feladatokra.

Gemini 1.5 Pro új képességei

A bemutató során részletesen ismertették a Gemini 1.5 Pro új képességeit is, amelyek kiterjednek a Gmail, Drive, Docs és Calendar alkalmazásokra. Az új képességek közé tartozik a kontextusfüggő válaszadási lehetőség, a dokumentumok és e-mailek automatikus elemzése és rendszerezése, valamint a különböző adatelemzési funkciók.

E rész lényege röviden összefoglalva

A Google Keynote negyedik része átfogó képet adott arról, hogyan integrálja a Google a Gemini AI-t a Workspace termékeibe. A bemutatott újítások célja, hogy növeljék a felhasználói hatékonyságot, megkönnyítsék a mindennapi munkafolyamatokat és javítsák az együttműködést. A Gemini 1.5 Pro és Flash modellek, valamint a virtuális munkatársak és az automatikus folyamatok bemutatása rávilágított arra, hogy a Google elkötelezett a technológiai innováció és az AI fejlődése iránt, és folyamatosan keresi az új módszereket, hogy még hatékonyabbá tegye a munkavégzést a digitális térben.

Google Search fejlesztések

A Google Keynote negyedik része a Google Search fejlesztéseire koncentrált, bemutatva a legújabb AI-alapú innovációkat és azok alkalmazását a keresési élmény javítására. A bemutató során részletesen ismertették az AI Overviews és a Search Generative Experience funkciókat, a keresési élmény általános fejlesztéseit, valamint a Google Photos és a videókkal történő keresési lehetőségek újdonságait.

AI Overviews és Search Generative Experience

Sundar Pichai, a Google vezérigazgatója bemutatta az AI Overviews funkciót, amely forradalmasítja a keresési élményt azáltal, hogy részletes és átfogó összefoglalókat nyújt a felhasználói kérdésekre. Az AI Overviews segítségével a felhasználók azonnal hozzáférhetnek a legrelevánsabb információkhoz, különböző perspektívákat kapva egyetlen kérdésre. Ez a funkció már elérhető az Egyesült Államokban, és hamarosan további országokban is bevezetésre kerül.

A Search Generative Experience egy újabb lépés a keresési élmény fejlesztésében, amely lehetővé teszi a felhasználók számára, hogy komplex kérdéseket tegyenek fel, és részletes, több lépésben összefüggő válaszokat kapjanak. Ez az újítás lehetővé teszi, hogy a Google keresőmotorja mélyebb és összetettebb kereséseket végezzen, azonosítva a kérdések összes alkotóelemét és összekapcsolva a releváns információkat.

Keresési élmény fejlesztések

A bemutató során Liz Reid, a Google egyik vezetője, részletesen ismertette a keresési élmény általános fejlesztéseit. Kiemelte, hogy a Google a legújabb AI modelleket használja a keresési élmény személyre szabására és javítására. A multi-step reasoning (többlépéses érvelés) segítségével a Google képes összetett kérdéseket részletekre bontani és minden egyes részletre külön-külön válaszokat adni.

Egy példa erre a keresési élményre, amikor a felhasználó részletes kérdéseket tesz fel, mint például a legjobb jóga- és pilates stúdiók megtalálása Bostonban, figyelembe véve az ajánlatokat és a stúdiók távolságát. A Google keresőmotorja összegyűjti és rendszerezi az információkat, majd egy átfogó AI Overview-t nyújt, amely tartalmazza az összes releváns adatot és térképeket.

Google Photos újítások

A Google Photos is jelentős fejlesztéseken ment keresztül a Gemini AI integrációjának köszönhetően. Sundar Pichai bemutatta az új „Ask Photos” funkciót, amely lehetővé teszi a felhasználók számára, hogy kérdéseket tegyenek fel a fényképeikkel kapcsolatban. A Gemini AI képes felismerni a gyakran megjelenő tárgyakat, például autókat, és azonosítani a felhasználók tulajdonát, majd válaszolni a kérdésekre, például megadni a rendszámot.

Az új funkció lehetővé teszi a felhasználók számára, hogy mélyebb módon keresgéljenek az emlékeik között. Például a felhasználók megkérdezhetik a Google Photos-t, mikor tanult meg úszni a gyermekük, és a rendszer képes lesz összegyűjteni az összes kapcsolódó fotót és információt, bemutatva a fejlődést különböző úszási tevékenységek során.

AI Overviews és kérdések videókkal

Rose, a Google egyik szakértője, bemutatta a videókkal történő keresés új lehetőségeit. A felhasználók mostantól videókat is használhatnak kereséseik során, ami különösen hasznos lehet a gyakorlati problémák megoldásában. Rose egy élő demót tartott, amelyben egy lemezjátszóval kapcsolatos problémát oldott meg videó segítségével.

A felhasználó egy videót készíthet a problémáról, és a Google AI azonnal elemzi a videót, azonosítva a benne látható tárgyakat és a mozgást. Ezután a Gemini AI keres a weben releváns információkat, fórumokat, videókat és egyéb forrásokat, hogy összefoglalót nyújtson a probléma megoldásához. A demó során Rose bemutatta, hogyan tudta a rendszer azonosítani a lemezjátszó alkatrészeit és lépésről lépésre útmutatást adni a probléma megoldásához.

E rész lényege röviden összefoglalva

A Google Keynote negyedik része átfogó képet adott arról, hogyan fejleszti a Google a keresési élményt a legújabb AI technológiák segítségével. Az AI Overviews és a Search Generative Experience funkciók bevezetése lehetővé teszi a felhasználók számára, hogy komplex és részletes válaszokat kapjanak kérdéseikre. A Google Photos és a videókkal történő keresési lehetőségek fejlesztései pedig új szintre emelik a személyes emlékek és gyakorlati problémák kezelését. Ezek a fejlesztések együttesen hozzájárulnak ahhoz, hogy a Google keresési élménye még intuitívabbá és hatékonyabbá váljon, kielégítve a felhasználók egyre növekvő igényeit.

Google DeepMind és AI fejlesztések

A Google Keynote ötödik része a Google DeepMind és az AI fejlesztések legújabb eredményeit mutatta be. Ezen a szekción belül az AI és az AGI (Artificial General Intelligence) célkitűzéseket, a generatív videotechnológiát (Veo), valamint a Project Astra nevű kezdeményezést részletezték.

AI és AGI célok

Demis Hassabis, a Google DeepMind társalapítója és vezérigazgatója nyitóbeszédében elmagyarázta, hogy a DeepMind alapvető célja az volt, hogy olyan mesterséges általános intelligenciát (AGI) hozzanak létre, amely emberi szintű kognitív képességekkel rendelkezik. Hassabis kiemelte, hogy a DeepMind egyesítette az AI tehetségeket a Google különböző részlegeiről, hogy egy szuper egységet alkossanak, amely képes megbirkózni a legösszetettebb kihívásokkal is.

Hassabis bemutatta a DeepMind legújabb eredményeit, beleértve az AlphaFold új generációs modelljét, amely képes megjósolni az élet molekuláinak szerkezetét és kölcsönhatásait. Ez a technológia jelentős áttörést hozhat a biológiai és orvosi kutatásokban, különösen a betegségmegértés és a gyógyszerfejlesztés terén. Az AlphaFold modell példája rávilágít arra, hogyan alkalmazzák a mesterséges intelligenciát az élettudományok területén, és milyen hatalmas potenciállal rendelkezik a jövőbeni kutatások támogatásában.

Generative Video (Veo) bemutatása

A DeepMind bemutatta legújabb generatív videotechnológiáját, a Veo-t. Ez a technológia képes magas minőségű, 1080p felbontású videók generálására szöveges, képi és videós inputok alapján. A Veo lehetővé teszi, hogy a felhasználók részletes és összetett vizuális és filmes stílusokat hozzanak létre, beleértve a légifelvételeket és az időzített felvételeket is.

Doug Eck, a Google egyik vezetője, részletesen bemutatta, hogy a Veo hogyan használja a Gemini multimodális képességeit a modell képzési folyamatának optimalizálására, ami lehetővé teszi a finomabb részletek és vizuális hatások megjelenítését. A bemutató során egy rövid filmet is láthattunk, amelyet a Veo segítségével hoztak létre. Donald Glover, az ismert művész és filmes, bemutatta, hogyan segítette őt a Veo a filmkészítési folyamatban, és hogyan tette lehetővé a kreatív elképzelései megvalósítását.

Project Astra bemutatása

A Project Astra a Google DeepMind legújabb AI asszisztens fejlesztése, amelynek célja egy univerzális AI ügynök létrehozása, amely a mindennapi életben valóban hasznos lehet. Hassabis kifejtette, hogy egy ilyen ügynöknek képesnek kell lennie a multimodális információk megértésére és a kontextus figyelembevételére, valamint proaktívnak, taníthatónak és személyre szabhatónak kell lennie.

A bemutató során egy prototípust is láthattunk, amely két részből állt, és valós időben, egyetlen felvételben készült. Az AI asszisztens bemutatta, hogy képes felismerni és azonosítani a különböző tárgyakat, válaszolni a kérdésekre, kreatív alliterációkat alkotni, és kódolási funkciókat megmagyarázni. Az AI asszisztens ezenkívül képes volt emlékezni a felhasználóval kapcsolatos információkra, például a szemüvege helyére, és javaslatokat tenni a rendszerek gyorsítására.

AI asszisztens képességei és alkalmazása

Az AI asszisztens képes volt felismerni és azonosítani a környezetében lévő tárgyakat, például egy hangszórót és annak részeit, valamint kreatív feladatokat végrehajtani, mint például alliterációk létrehozása. A bemutató során az asszisztens kódolási funkciókat is magyarázott, és helyszínazonosítást végzett, például felismerte London egyik negyedét. Az AI asszisztens emlékezőképessége is kiemelkedő volt, például emlékezett arra, hogy hol látta a felhasználó szemüvegét.

Az AI asszisztens további képességei közé tartozik a javaslatok tétele a rendszerek gyorsítására és a kreatív ötletek, például zenekarnevek létrehozása. A bemutató során láthattuk, hogy az AI asszisztens hogyan működhet együtt a felhasználóval, hogy gyorsabban és hatékonyabban oldjon meg komplex feladatokat.

E rész lényege röviden összefoglalva

A Google Keynote ötödik része átfogó képet adott a Google DeepMind és az AI fejlesztések legújabb eredményeiről. A bemutatott AI és AGI célkitűzések, a generatív videotechnológia (Veo) és a Project Astra mind-mind rávilágítanak arra, hogyan törekszik a Google a mesterséges intelligencia alkalmazásának határainak kitolására. A bemutatott technológiák és fejlesztések nemcsak a tudományos és technológiai közösség számára jelentenek jelentős előrelépést, hanem a mindennapi felhasználók számára is új lehetőségeket nyitnak meg a kreativitás és a hatékonyság terén.

Generatív média eszközök

A Google Keynote hatodik része a generatív média eszközök legújabb fejlesztéseire összpontosított, különösen az Imagen 3, a Music AI Sandbox és a Veo generatív videotechnológia bemutatására. Ezek az eszközök forradalmasítják a kreatív folyamatokat, lehetővé téve a felhasználók számára, hogy lenyűgöző képeket, zenéket és videókat hozzanak létre mesterséges intelligencia segítségével.

Imagen 3

Doug Eck, a Google egyik vezetője bemutatta az Imagen 3-at, a Google legújabb és legfejlettebb képalkotó modelljét. Az Imagen 3 jelentős előrelépést jelent a fotorealisztikus képalkotás terén, képes rendkívül részletgazdag és élethű képeket generálni. Az új modell jobban érti és kezeli a felhasználói utasításokat, és pontosabban integrálja a részleteket, mint például a „vadvirágok” vagy „egy kis kék madár” egy hosszabb leírásban.

Az Imagen 3 a szöveges utasításokat is jobban értelmezi, és a képek szöveges elemeinek megjelenítése is javult. A modell képes megbízhatóan megjeleníteni a szöveges tartalmakat a képeken, ami korábban kihívást jelentett a képalkotó modellek számára. Az Imagen 3 minőségét független értékelők is megerősítették, akik előnyben részesítették ezt a modellt más népszerű képalkotó modellekkel szemben. Az Imagen 3 már elérhető az ImageFX részeként a Google AI eszköztárában, és hamarosan a fejlesztők és vállalati ügyfelek számára is elérhető lesz a Vertex AI platformon.

Music AI Sandbox

A Music AI Sandbox egy új, professzionális zenei AI eszközkészlet, amelyet a Google a YouTube-bal közösen fejlesztett ki. Ezek az eszközök lehetővé teszik a zenészek és producerek számára, hogy új hangszeres részeket hozzanak létre a semmiből, átvigyék a stílusokat a különböző zeneszámok között és még sok más kreatív feladatot végezzenek.

Doug Eck bemutatta, hogyan dolgoztak együtt zenészekkel és producerekkel a Music AI Sandbox fejlesztése során. A bemutató során több zenész is megosztotta tapasztalatait, és elmondták, hogyan segítette őket az AI az alkotási folyamatban. Például egy hip-hop producer bemutatta, hogyan használta az AI-t ritmikus elemek és hangminták létrehozására, míg egy másik művész megmutatta, hogyan töltötte fel az AI-val a sűrűbb részeket a zenei kompozícióiban. Ezek az eszközök nemcsak gyorsabbá és hatékonyabbá teszik a zenekészítést, hanem új kreatív lehetőségeket is nyitnak a művészek számára.

Veo generatív video technológia

A Veo, a Google legújabb generatív videotechnológiája, amelyet a DeepMind fejlesztett ki, képes magas minőségű, 1080p felbontású videók létrehozására szöveges, képi és videós inputok alapján. Ez a technológia lehetővé teszi a felhasználók számára, hogy részletes és összetett vizuális és filmes stílusokat hozzanak létre, beleértve a légifelvételeket és az időzített felvételeket is.

Doug Eck bemutatta, hogy a Veo hogyan kombinálja a különböző mesterséges intelligencia architektúrákat és technikákat, mint például a GQN, Phenaki, Walt, VideoPoet és Lumiere, hogy javítsa a videók konzisztenciáját, minőségét és felbontását. A bemutató során egy rövid filmet is láthattunk, amelyet a Veo segítségével hoztak létre, bemutatva a technológia képességeit.

Donald Glover, ismert művész és filmes, szintén bemutatta, hogyan használta a Veo technológiát egy rövidfilm készítése során. Glover elmagyarázta, hogy a Veo lehetővé tette számára, hogy gyorsabban és kreatívabban dolgozzon, mivel a technológia lehetővé tette számára, hogy gyorsan kísérletezzen és iteráljon a különböző ötletekkel. Glover szerint a Veo segített neki, hogy a hibákból tanuljon és gyorsan javítson a projektjein, ami alapvető fontosságú a művészi folyamatban.

E rész lényege röviden összefoglalva

A Google Keynote hatodik része átfogó képet adott a generatív média eszközök legújabb fejlesztéseiről, különösen az Imagen 3, a Music AI Sandbox és a Veo technológiáról. Ezek az eszközök lehetővé teszik a felhasználók számára, hogy lenyűgöző képeket, zenéket és videókat hozzanak létre mesterséges intelligencia segítségével, forradalmasítva a kreatív folyamatokat. Az Imagen 3 új szintre emeli a képalkotást, a Music AI Sandbox új lehetőségeket nyit a zenészek számára, míg a Veo lehetővé teszi a filmesek és tartalomkészítők számára, hogy magas minőségű videókat hozzanak létre gyorsan és hatékonyan. Ezek az innovációk egyértelműen rávilágítanak arra, hogyan törekszik a Google a kreatív iparágak támogatására és a technológia határainak kitolására.

Gemini alkalmazás bemutatása

A Google Keynote hetedik része a Gemini alkalmazás bemutatására fókuszált, különös tekintettel a multimodalitásra, a személyre szabható „Gems”-re, az új utazástervezési élményre, valamint a Gemini 1.5 Pro és Advanced előfizetési lehetőségekre. Ezek az újítások célja, hogy az AI segítségével a felhasználók életét még egyszerűbbé és hatékonyabbá tegyék.

Multimodalitás és személyre szabható Gems

Sissie Hsiao, a Google egyik vezetője bemutatta, hogy a Gemini alkalmazás hogyan válik a leginkább segítőkész és személyre szabható AI asszisztenssé a multimodalitás révén. A Gemini alkalmazás képes szöveges, hangalapú és kamerás inputokat kezelni, lehetővé téve a felhasználók számára, hogy természetes módon kommunikáljanak vele.

Az egyik legizgalmasabb újítás a „Gems” funkció, amely lehetővé teszi a felhasználók számára, hogy személyre szabott AI szakértőket hozzanak létre bármilyen témában. A Gems beállítása egyszerű: csak meg kell adni az utasításokat, és a Gemini alkalmazás elmenti azokat, hogy később bármikor visszatérhessen hozzájuk. Például Hsiao bemutatta saját „Cliff Hanger Curator” nevű Gem-jét, amely segít neki rövid történetek írásában rejtélyes csavarokkal, és a Google Drive-ban tárolt történeteket is felhasználja.

A Gems funkció hatalmas időmegtakarítást jelenthet azok számára, akik rendszeresen ugyanazokat a feladatokat végzik, mivel lehetővé teszi, hogy az AI ismételten alkalmazza a korábban megadott utasításokat. A felhasználók különböző célokra használhatják a Gems-t, például jógaoktatóként, személyes séfként, matematikai oktatóként vagy kódszemlélőként.

Új utazástervezési élmény

Sissie Hsiao bemutatta az új utazástervezési élményt, amely a Gemini Advanced előfizetéssel érhető el. Ez az új funkció a szöveges promptok alapján képes komplex utazási terveket létrehozni, figyelembe véve a felhasználók prioritásait és korlátait. Például Hsiao bemutatta, hogyan kérte meg a Geminit, hogy tervezzen egy miami utazást a családjának, amely figyelembe veszi a fia művészeti érdeklődését és férje tengeri ételek iránti szeretetét, valamint az e-mail fiókjában található repülőjegy- és szállodafoglalási információkat.

A Gemini alkalmazás összegyűjtötte az összes releváns információt a keresőből, a Google Maps-ből és a Gmail-ből, majd egy dinamikus grafikonon ábrázolta a lehetséges utazási opciókat. A felhasználó módosíthatja a tervet, például megváltoztathatja az indulási időt, és a Gemini automatikusan átszervezi az útitervet. Az új utazástervezési élmény rendkívül gyors és hatékony, lehetővé téve, hogy a felhasználók percek alatt átfogó és személyre szabott utazási terveket készítsenek.

Gemini 1.5 Pro és Advanced előfizetés

A bemutató során Sundar Pichai bejelentette, hogy a Gemini 1.5 Pro mostantól elérhető a Gemini Advanced előfizetők számára. A Gemini 1.5 Pro a világ leghosszabb kontextusablakával rendelkezik, akár 1 millió tokenig, ami lehetővé teszi a felhasználók számára, hogy rendkívül nagy mennyiségű információt dolgozzanak fel egyszerre.

Ez az előfizetési modell különösen hasznos lehet diákok, kutatók és fejlesztők számára, akik komplex projektekkel dolgoznak. A felhasználók akár 1500 oldalas PDF-eket, több fájlt vagy akár egy órás videót is feltölthetnek, hogy részletes elemzést és javaslatokat kapjanak. A Gemini Advanced az egyetlen chatbot, amely képes ekkora mennyiségű információ kezelésére.

A bemutató során példákon keresztül mutatták be, hogyan segíthet a Gemini Advanced a felhasználóknak. Diákok például feltölthetik teljes szakdolgozatukat, jegyzeteiket és kutatási anyagaikat, és a Gemini részletes visszajelzést és javítási javaslatokat adhat. Kódolók számára a Gemini képes több ezer soros kódot elemezni és optimalizálni.

A Gemini Advanced továbbá képes adatokat elemezni és vizualizálni, például egy kézműves termékeket árusító vállalkozás bevételeit és profitját bemutatni. Az AI Python kódot ír az adatok elemzésére, biztosítva, hogy a felhasználók pontos és részletes betekintést kapjanak a pénzügyi teljesítményükről.

Új funkciók és bővítések

A bemutató végén Sissie Hsiao bejelentette, hogy a Gemini Advanced előfizetők számára hamarosan elérhetővé válik a 2 millió tokenes kontextusablak is, amely tovább növeli az AI alkalmazásának lehetőségeit. A Gemini folyamatosan fejlődik és bővül, egyre intelligensebbé válik, és egyre több nyelven elérhető, jelenleg már több mint 35 nyelven használható.

E rész lényege röviden összefoglalva

A Google Keynote hetedik része átfogó képet adott a Gemini alkalmazás legújabb fejlesztéseiről és képességeiről. A multimodalitás és a személyre szabható Gems funkciók lehetővé teszik a felhasználók számára, hogy természetes módon kommunikáljanak az AI-val és személyre szabott szakértőket hozzanak létre. Az új utazástervezési élmény gyors és hatékony módot kínál a komplex utazási tervek készítésére, míg a Gemini 1.5 Pro és Advanced előfizetések lehetővé teszik a felhasználók számára, hogy nagy mennyiségű információt dolgozzanak fel és részletes elemzéseket kapjanak. Ezek az innovációk egyértelműen rávilágítanak arra, hogy a Google elkötelezett a mesterséges intelligencia alkalmazásának továbbfejlesztése és a felhasználói élmény javítása mellett.

Android AI integráció

A Google Keynote nyolcadik része az Android operációs rendszer és az AI integrációjára fókuszált, bemutatva, hogyan alakítja át az AI az Android élményt. Ez a rész kiterjedt az AI-alapú keresésre, a Gemini AI-asszisztens szerepére az Androidon, valamint az eszközön futó AI élményekre.

AI-alapú keresés

Sameer Samat, a Google egyik vezetője, bemutatta, hogyan használja az Android az AI-alapú keresést, hogy új módokat kínáljon a felhasználók számára a szükséges információk gyors eléréséhez. Az AI-alapú keresés segítségével a felhasználók mélyebb betekintést nyerhetnek bármilyen tartalomba anélkül, hogy alkalmazást kellene váltaniuk. Például a Circle to Search funkcióval a felhasználók könnyedén kereshetnek ruhákat, felfedezhetnek új összetevőket főzéshez, vagy lefordíthatnak bármilyen szöveget a képernyőn egy másik nyelvre.

Az egyik kiemelkedő újítás, amelyet bemutattak, a diákok számára kifejlesztett keresési lehetőség. A diákok mostantól az AI segítségével megoldhatnak bonyolult fizikai problémákat vagy más tanulási feladatokat közvetlenül a telefonjukon vagy táblagépükön. Például egy fizikai feladat megoldása során a diákok bevihetik a problémát, és az AI azonnal megoldást nyújt, lépésről lépésre magyarázva a folyamatot.

Gemini mint AI-asszisztens Androidon

A bemutató második részében Sameer Samat ismertette, hogy a Gemini hogyan válik az Android új AI-asszisztensévé, amely folyamatosan elérhető a felhasználók számára, hogy segítsen nekik bármikor. A Gemini AI-asszisztens különböző funkciókat lát el, például segít a feladatok elvégzésében, emlékeztetők beállításában, valamint információk keresésében és megszerzésében.

A Gemini AI-asszisztens integrációja az Androidba lehetővé teszi, hogy a felhasználók közvetlenül a kezdőképernyőn vagy bármely alkalmazásban hozzáférjenek az AI segítségével nyújtott funkciókhoz. A bemutató során példákat láthattunk arra, hogyan használhatják a felhasználók a Geminit a napi feladatok megkönnyítésére, például egy bevásárlólista összeállítására vagy egy bonyolult utazási terv elkészítésére.

On-device AI élmények

Az Android operációs rendszer egyik legfontosabb újítása az eszközön futó AI élmények bevezetése volt. Az on-device AI lehetővé teszi a felhasználók számára, hogy gyorsan és biztonságosan használhassák az AI funkciókat anélkül, hogy az adataik elhagynák az eszközüket. Ez különösen fontos a személyes adatok védelme és a gyors válaszidők szempontjából.

Az on-device AI technológiát az Android különböző területein alkalmazzák, például a fotózási élmények javításában, a valós idejű fordításban és a hangalapú interakciókban. Az egyik bemutatott példa az volt, hogyan segíthet az AI a valós idejű fordításban egy idegen nyelvű társalgás során. A felhasználók egyszerűen beszélhetnek az eszközükhöz, és az AI valós időben fordítja le a beszélgetést, megkönnyítve ezzel a kommunikációt.

Továbbá, az on-device AI lehetővé teszi a felhasználók számára, hogy jobban kezeljék a fotóikat és videóikat. Az AI segítségével a felhasználók könnyedén szerkeszthetik a képeiket, javíthatják a minőségüket, vagy éppen felismerhetik és rendszerezhetik a tartalmukat anélkül, hogy internetkapcsolatra lenne szükségük.

E rész lényege röviden összefoglalva

A Google Keynote nyolcadik része részletesen bemutatta, hogyan integrálja a Google az AI-t az Android operációs rendszerbe, hogy forradalmasítsa a felhasználói élményt. Az AI-alapú keresés új lehetőségeket nyit meg a felhasználók számára, hogy gyorsan és hatékonyan találjanak információkat. A Gemini AI-asszisztens integrációja az Androidba lehetővé teszi, hogy a felhasználók bármikor és bárhol igénybe vehessék az AI segítségét. Végül, az on-device AI élmények biztosítják, hogy a felhasználók gyorsan és biztonságosan használhassák az AI funkciókat, miközben személyes adataik védve maradnak. Ezek az innovációk együttesen hozzájárulnak ahhoz, hogy az Android a legjobb platformmá váljon az AI-élményekhez, és jelentős mértékben javítják a felhasználói élményt.

Zárszó: AI és Google jövőbeli tervei

A Google Keynote zárórésze a vállalat mesterséges intelligenciával kapcsolatos jövőbeli terveire és elképzeléseire fókuszált. Sundar Pichai, a Google vezérigazgatója összefoglalta az esemény legfontosabb pillanatait, és betekintést nyújtott abba, hogy a Google hogyan tervezi az AI technológiák továbbfejlesztését és alkalmazását a jövőben.

AI és Google jövőbeli tervei

Pichai hangsúlyozta, hogy a Google elkötelezett a mesterséges intelligencia fejlődésének támogatása és az AI technológiák mindennapi életbe való integrálása mellett. A vállalat célja, hogy az AI segítségével olyan innovatív megoldásokat hozzon létre, amelyek javítják az emberek életminőségét, hatékonyabbá teszik a munkafolyamatokat, és új lehetőségeket nyitnak meg a kreatív és tudományos kutatások terén.

AI kutatás és fejlesztés

A jövőbeli tervek középpontjában az AI kutatás és fejlesztés áll. Pichai kifejtette, hogy a Google továbbra is jelentős forrásokat fordít az AI alapkutatásra, hogy új áttöréseket érjen el a gépi tanulás, a természetes nyelvfeldolgozás és a számítógépes látás terén. A Google célja, hogy olyan intelligens rendszereket hozzon létre, amelyek képesek önállóan tanulni és alkalmazkodni különböző helyzetekhez.

Pichai említést tett az AGI (Artificial General Intelligence) fejlesztésére irányuló erőfeszítésekről is, amelynek célja egy olyan intelligencia létrehozása, amely képes emberi szintű kognitív képességekkel rendelkezni. Bár az AGI még mindig a kutatások korai szakaszában van, a Google elkötelezett amellett, hogy a legjobb szakértőket és technológiákat vonja be a fejlesztési folyamatba.

AI és etikai felelősség

Pichai hangsúlyozta, hogy a Google számára rendkívül fontos az AI etikai használata és a technológia felelősségteljes fejlesztése. A vállalat szigorú irányelveket követ az AI alkalmazásával kapcsolatban, biztosítva, hogy az új technológiák tiszteletben tartsák az emberi jogokat és méltóságot. Pichai elmondta, hogy a Google folyamatosan együttműködik a tudományos közösséggel, a kormányzatokkal és a civil szervezetekkel, hogy biztosítsa az AI biztonságos és etikus használatát.

AI az egészségügyben és a környezetvédelemben

A Google jövőbeli tervei között kiemelt szerepet kap az AI alkalmazása az egészségügyben és a környezetvédelemben. Pichai bemutatta, hogyan használják az AI-t a betegségmegelőzés és a diagnosztika terén, valamint a gyógyszerkutatásban. Az AI technológiák segítségével pontosabb és gyorsabb diagnózisokat lehet felállítani, valamint új kezelési módszereket fejleszteni.

A környezetvédelem terén a Google célja, hogy az AI segítségével csökkentse a szén-dioxid kibocsátást, optimalizálja az energiafelhasználást és támogassa a fenntartható fejlődést. Pichai kifejtette, hogy a Google már most is számos AI-alapú megoldást alkalmaz a saját működésének fenntarthatóbbá tételére, és a jövőben tovább kívánja bővíteni ezeket az erőfeszítéseket.

AI a hétköznapi életben

Pichai záróbeszédében kiemelte, hogy a Google célja, hogy az AI technológiákat mindenki számára elérhetővé tegye, és javítsa az emberek mindennapi életét. Az AI-alapú keresés, az intelligens asszisztensek és az eszközön futó AI megoldások mind hozzájárulnak ahhoz, hogy a felhasználók gyorsabban és hatékonyabban végezhessék el a feladataikat, legyen szó munkahelyi vagy otthoni környezetről.

Pichai példaként említette a Google Photos és a Google Lens fejlesztéseit, amelyek lehetővé teszik a felhasználók számára, hogy egyszerűen kezeljék és szervezzék a fotóikat, valamint azonosítsák a képeken látható tárgyakat és szövegeket. Az AI technológiák integrálása az Android operációs rendszerbe szintén új szintre emeli a mobil élményt, lehetővé téve a felhasználók számára, hogy a zsebükben hordozzák a világ legfejlettebb AI-asszisztensét.

E rész lényege röviden összefoglalva

A Google Keynote zárószekciója összefoglalta a vállalat mesterséges intelligenciával kapcsolatos jövőbeli terveit és célkitűzéseit. Sundar Pichai hangsúlyozta, hogy a Google elkötelezett az AI kutatás és fejlesztés mellett, és célja, hogy az AI technológiák segítségével javítsa az emberek életminőségét, támogassa a fenntartható fejlődést, és biztosítsa az AI etikus és felelősségteljes használatát. A Google továbbra is innovatív megoldásokkal kíván hozzájárulni az egészségügy, a környezetvédelem és a hétköznapi élet területén, hogy a mesterséges intelligencia mindenki számára elérhető és hasznos legyen.