Toen het werd gelanceerd, bood de Visual Intelligence-functie van Apple je de mogelijkheid om met je camera-compatibele telefoon om je heen te richten en een zoekopdracht uit te voeren voor Google-afbeeldingen of vragen te stellen via chatgpt. Op WWDC 2025 heeft het bedrijf updates getoond om de nut van visuele intelligentie uit te breiden, voornamelijk door het op te nemen in het screenshot-systeem. Volgens het persbericht van het bedrijf: “Visual Intelligence helpt gebruikers al om objecten en plaatsen om hen heen te herkennen met behulp van de camera van de iPhone en stelt gebruikers nu in staat om meer te doen, sneller, met de inhoud op het scherm van hun iPhone.”
Dit deed me denken aan het “bewustzijn van het scherm” dat Apple beschreef als een van de vaardigheden van Siri toen het vorig jaar Apple Intelligence aankondigde. In dat persbericht zei het bedrijf: “Met het bewustzijn van het scherm zal Siri de inhoud van gebruikers in verschillende apps in de loop van de tijd kunnen begrijpen en actie kunnen ondernemen.” Hoewel het niet precies hetzelfde is, stelt de visuele intelligentie op basis van bijgewerkte screenshots min of meer uw iPhone in staat om contextuele acties uit te voeren op basis van de inhoud op het scherm, maar dan niet via Siri.
In zekere zin is het logisch. De meeste mensen zijn al gewend om een screenshot te maken wanneer ze belangrijke informatie willen delen of opslaan die ze op een website of Instagram hebben gezien. De integratie van Apple Intelligence-acties hier zou theoretisch de tools plaatsen waar ze worden verwacht, in plaats van gebruikers met Siri te laten praten (of te wachten tot de update wordt gelanceerd).
Kortom, in iOS 26 (op apparaten die Apple Intelligence ondersteunen), zal door op de aan/uit-knop en volumeknoppen te drukken om een screenshot te maken, de put op een nieuwe pagina betrokken worden. In plaats van de miniatuur van uw opgeslagen afbeelding die linksonder verschijnt, ziet u de afbeelding die bijna het hele display beslaat, met opties eromheen voor het bewerken, delen of opslaan van het bestand, evenals het verkrijgen van antwoorden en acties op basis van de intelligentie van Apple onderaan. Links en rechts bevinden zich de hoeken om respectievelijk chatgpt te vragen en een Google-afbeelding te zoeken.
Afhankelijk van wat er in de screenshot staat, kan Apple Intelligence verschillende acties onder uw afbeelding voorstellen. Dit kan vragen waar je een object met een soortgelijk uiterlijk kunt kopen, een gebeurtenis toevoegen aan je agenda of het identificeren van soorten planten, dieren of voedsel bijvoorbeeld. Als er veel te doen is in uw screenshot, kunt u op een element tekenen om het te markeren (vergelijkbaar met het selecteren van een object om foto’s te verwijderen) en specifieke informatie voor dat deel van de afbeelding te verkrijgen.
Zelfs de derde partij apps of services die de bedoeling van de apps hebben ingeschakeld, zoals Google, Etsy en Pinterest, kunnen hier in deze ruimte ook acties uitvoeren. Als u bijvoorbeeld een boeknend hebt gevonden die u leuk vindt, maakt u een screenshot en geïdentificeerd, kunt u deze kopen op Etsy of Pin het op Pinterest.
Een aspect van deze update van Visual Intelligence dat me pauzeert, is dat voor mensen zoals ik die screenshots maken zonder hapering en niets anders doen dan de bonnen krijgen, dit een frustrerende stap zou kunnen toevoegen tussen het maken van een screenshot en het redden van de foto’s. Het lijkt erop dat u mogelijk deze interface kunt deactiveren en het bestaande screenshot-systeem kunt volgen.
De voorbeelden die Apple heeft gegeven voor het vermogen van Siri om te begrijpen wat er op het scherm staat, zijn een beetje vergelijkbaar. In zijn persbericht van vorig jaar zei Apple: “Als de vriend van een vriend bij een gebruiker bijvoorbeeld hun nieuwe adres in de berichten is, kan de ontvanger zeggen:” Voeg dit adres toe aan zijn contactkaart “.
Als een visuele intelligentie in de screenshots, omvat dit het scannen van de inhoud op het scherm op relevante informatie en het helpen om deze op een plaats te plaatsen (zoals contacten of kalender) waar het nuttiger is. De belofte van het nieuwe tijdperk van Siri betrof echter de interactie met alle delen van de telefoon, via het eerste en derde deel apps. U kunt dus de assistent vragen om een artikel te openen dat u aan uw leeslijst in Safari hebt toegevoegd of foto’s versturen van een evenement dat in een contactpersoon is opgegeven.
Het is duidelijk dat Apple deze vooruitgang nog moet bieden aan Siri, en zoals Craig Federighi op de keynote van de WWDC 2025 zei, zal dit pas aan het einde van het jaar besproken worden. Terwijl we wachten op die update van de staat, kunnen de veranderingen die naar de screenshots komen een voorbeeld zijn van de komende dingen.
Als u iets koopt via een link in dit artikel, kunnen we commissies verdienen.
BRON






