Vandaag heeft Google zijn Pixel 10-training aangekondigd en de nieuwste telefoons van het bedrijf zijn de eerste die de standaard C2PA in de sector binnen de native camera-app implementeren. Hierdoor kunnen mensen bepalen of een afbeelding is bewerkt met behulp van kunstmatige intelligentie, waardoor de authenticiteit ervan wordt bevestigd aan iedereen die ernaar kijkt.
De coalitie voor de oorsprong van inhoud en authenticiteit heeft een open technische standaard ontworpen die transparantie vereist over hoe een stuk is gemaakt en welke eventuele wijzigingen zijn aangebracht. Als een digitale filigraan verschijnt (vergelijkbaar met een voedingslabel), zijn de inhoudsreferenties aanwezig in alle foto’s gemaakt door een Pixel 10-camera en worden ze ook weergegeven door iedereen die Google Foto’s gebruikt.
De camerafuncties op de nieuwste Pixel-telefoons zijn meer gebaseerd op kunstmatige intelligentie dan ooit tevoren, waardoor het mogelijk is om wijzigingen in Google-foto’s toe te passen met behulp van vocale suggesties van natuurlijke taal die beschrijven wat u wilt. Hierdoor kunnen gebruikers zonder fotobewerkingsvaardigheden het handmatige proces omzeilen en met slechts een paar aanrakingen suggesties krijgen voor bewerkingen op basis van AI.
Google is lid geworden van de C2PA en heeft geholpen bij de ontwikkeling van de nieuwste versie van contentreferenties. De technologie is nu ingebouwd in de zoekfunctie van Google, zodat elke afbeelding met CP2A-metadata kan worden geïdentificeerd. De standaard wordt nu ondersteund in Google Afbeeldingen, Lens en Zoeken, evenals op de Pixel 10-telefoons die vandaag zijn aangekondigd. De implementatie van inhoudsreferenties zal geleidelijk plaatsvinden op Android- en iOS-apparaten die Google Foto’s uitvoeren in de komende weken.






