Az Apple a Google mesterséges intelligenciájára támaszkodva hoz el több mint nyolc új funkciót az iPhone-okra, amelyek gyökeresen átalakíthatják a Siri működését és a mindennapi felhasználói élményt.
Az Apple hivatalosan is megerősítette, hogy a közeljövőben a Google Gemini mesterségesintelligencia-modelljeit fogja használni az Apple Intelligence egyes funkcióinak működtetéséhez. Bár a vállalat egyelőre nem nevezte meg pontosan, mely Siri- és Apple Intelligence-képességek épülnek majd a Gemini technológiájára, az iparági értesülések és belső források már most elég részletes képet adnak arról, mire számíthatnak az iPhone-felhasználók.
A The Information beszámolója szerint a Siri jelentős megújuláson megy keresztül, amelynek egyik legfontosabb eleme a természetesebb, emberközelibb kommunikáció lesz. Az új Siri például képes lehet érzelmi támogatást nyújtani, ha a felhasználó azt mondja, hogy magányosnak vagy lehangoltnak érzi magát. Emellett sokkal pontosabb általános tudással és tényszerű válaszokkal szolgál majd, méghozzá beszélgetésalapú formában, hasonlóan a ChatGPT-hez vagy a Google Gemini saját chatbotjához.
A fejlesztések nem állnak meg a válaszadás szintjén. A megújult Siri összetettebb feladatokat is el tud majd végezni, például dokumentumot készít az Apple Notes alkalmazásban egy megadott témáról, vagy személyes jellegű teendőket intéz, mint például utazás foglalása. Különösen fontos újítás, hogy a rendszer jobban kezeli majd azokat a helyzeteket, amikor nem teljesen egyértelmű a felhasználó kérése, illetve akár történeteket is képes lesz mesélni.

A jelentés kitér a később érkező, iOS 27-hez kötődő Siri-funkciókra is, amelyeket az Apple várhatóan a júniusi WWDC fejlesztői konferencián mutat be. Ezek közé tartozik az előző beszélgetések megjegyzésének képessége, ami lehetővé teszi a valódi kontextusra épülő párbeszédet. Emellett megjelennek a proaktív funkciók is, például a Siri javaslatot tehet arra, mikor érdemes elindulni a repülőtérre egy barátért, figyelembe véve a forgalmi viszonyokat.
A Google Gemini nemcsak a Siri fejlődésében kap szerepet, hanem az Apple Intelligence azon funkcióiban is, amelyeket az Apple még a WWDC 2023-on jelentett be, ám végül elhalasztott. Ezek közé tartozik a személyes kontextus kezelése, amikor a Siri az eszközön tárolt adatok – például üzenetek vagy e-mailek – alapján segít megtalálni a keresett információt. Szintén ide sorolható a képernyőtartalom felismerése, amely lehetővé teszi, hogy a Siri a képernyőn látható elemekkel kapcsolatban hajtson végre műveleteket, valamint az alkalmazáson belüli akciók támogatása, amikor a felhasználó konkrét appokon belüli feladatokat ad ki hangutasítással.
Az első, Google Gemini által támogatott iPhone-funkciók várhatóan az iOS 26.4 részeként jelennek meg, amely már a következő hónapban beléphet a béta tesztelési szakaszba. Ez egyértelmű jel arra, hogy az Apple komolyan veszi az AI-alapú asszisztencia fejlesztését, és a Google-lel való együttműködés révén igyekszik gyorsabban és látványosabban felzárkózni a mesterséges intelligencia élvonalához.
Illik hozzá egy tok? Rendeld meg most!

