• Techjournalist Shubham Agarwal was benieuwd naar Apple Intelligence, dus probeerde hij tijdelijk een iPhone 16 uit.
  • Agarwal is onder de indruk van sommige AI-snufjes, zoals samenvattingen van notificaties.
  • Het meest nuttige lijkt de integratie van spraakassistent Siri met ChatGPT.
  • Lees ook: Dit moet je doen om Apple Intelligence werkend te krijgen in Nederland

Apple Intelligence werkt vooralsnog alleen in Nederland als de systeemtaal van Apple-producten in het Engels wordt gezet. Het werkt ook alleen met Engelstalige taal. Vermoed wordt dat Apple in april Nederlands voor Apple Intelligence zal introduceren.

Al jarenlang pak ik na het wakker worden direct mijn telefoon en scroll dan door alle notificaties die ik ’s nachts heb gemist. Die slechte gewoonte is met dank aan de nieuwe notificatie-samenvattingen op mijn iPhone een snelle blik op het scherm geworden.

Een paar maanden geleden stapte ik over op een Android-telefoon, maar toen Apple begin dit jaar nieuwe Apple Intelligence-toepassingen introduceerde, wilde ik die graag proberen.

Aangezien ik die niet kon activeren op mijn oude iPhone 15, leende ik een iPhone 16 Plus van mijn partner. Die heeft een nieuwe variant van wat Apple de ‘Neural Engine’ noemt. Die chip is bedoeld voor de nieuwste generatie generatieve AI-modellen. Ik moest Apple Intelligence handmatig activeren op iOS 18.1, daar waar het op iOS 18.3 standaard is geactiveerd.

Apple heeft vanaf de iOS 18.1-update een hele serie van nieuwe door AI aangedreven toepassingen geïntroduceerd en zelfs voor iemand zoals ik die zelden tegen Siri praat, zorgen veel van die toepassingen voor een hele andere iPhone-ervaring en hebben ze me geholpen mijn schermtijd te verminderen.

Door AI gemaakte berichtensamenvattingen maken het makkelijker om groepchats bij te houden

Als er meerdere ongelezen meldingen zijn van een app, zoals e-mails of andere tekstberichten, dan maakt de nieuwe update daar nu een korte samenvatting van twee regels van. Die wordt automatisch weergegeven op het vergrendelscherm.

De software van de iPhone werkt nu net als een generatieve AI-chatbot en snapt taal tot op een veel dieper niveau. Notificaties worden gescand op belangrijke details, net als mensen dat zouden doen.

Toen ik een aantal berichten had gemist van een af en toe actieve chatgroep waarin de deelnemers een vakantie aan het plannen waren, vatte Apple Intelligence het gesprek samen en toonde me enkel bestemmingen en mogelijke data die leden van de groep hadden voorgesteld. Zo kreeg ik bijvoorbeeld te lezen "Janhavi raadt Bali aan en de meeste mensen vinden eind mei het meest geschikt."

Een andere serie berichten van een vriend werd samengevat als "Paniek thuis en op het werk. Een collega heeft een fout gecorrigeerd." Die samenvattingen werken voor meerdere apps. De laatste weken gebruik ik ze vooral om er snel achter te komen of een berg e-mails, tekstberichten of Slack-notificaties mijn onmiddellijke aandacht vragen.

Af en toe is een notificatie wel te kort of te algemeen geformuleerd om nuttig te kunnen zijn. Soms wordt de context gemist. Zo kwam Apple Intelligence bijvoorbeeld met de verkeerde samenvatting "Netanyahu gearresteerd" van een aantal nieuwskoppen over het nieuws dat het Internationaal Strafhof een arrestatiebevel had uitgevaardigd tegen de Israëlische premier.

Ondertussen werkt deze functionaliteit niet meer voor nieuws-apps, aangezien Apple dit hiervoor heeft uitgezet. Het zou volgens de nieuwsuitgevers te vaak foutieve samenvattingen maken en daarmee onwaarheden verspreiden. Voor overige apps kan de gebruiker kiezen om het aan of uit te zetten.

Na de nieuwe update worden alle samenvattingen schuingedrukt weergegeven, zodat de gebruiker kan zien dat het om een AI-samenvatting gaat en hij er rekening mee kan houden dat deze incorrect kan zijn.

Een nieuwe instelling zet alle niet-dringende notificaties op mute

Een andere toepassing van Apple Intelligence die mijn schermtijd heeft verminderd, is de instelling "Reduce Interruptions Focus". De nieuwe software van Apple analyseert de urgentie van een alert en laat dan alleen de notificaties zien waarvan het AI-model denkt dat je het belangrijk vindt. De rest wordt verborgen.

Toen ik mijn iPhone eenmaal in die modus had gezet, werden allerlei niet-noodzakelijke berichten verborgen, zoals verkoopberichten, geforwarde berichten of reserveringsbevestingen. Andere alerts kregen het label "misschien belangrijk". Zo kreeg ik bijvoorbeeld geen notificatie over een nieuwslinkje dat iemand had doorgestuurd, maar wel eentje over de bevestiging van een eetafspraak van diezelfde persoon.

Siri is beter en natuurlijker geworden

Met de nieuwe updates van Apple Intelligence verlopen de gesprekken met Siri natuurlijker en is de virtuele assistent zich veel bewuster van de context.

Als je een vervolgvraag stelt na je eerste "Hey Siri"-verzoek, hoef je niet allerlei details uit het oorspronkelijke verzoek te herhalen. Als je ergens tijdens het gesprek begint te stotteren of praat zoals je normaal zou doen, dan begrijpt zij toch je vraag. Een verzoek als "Siri, zet een timer op 10 minuten, of sorry wacht even, maak er maar 15 minuten van" leidt niet meer tot het klassieke antwoord "Ik begrijp het niet helemaal", maar tot een timer die op 15 minuten wordt gezet.

Met Apple Intelligence is Siri ook veel accurater geworden bij het uitvoeren van acties binnen andere apps, zoals het schrijven van een bericht aan iemand via WhatsApp. Siri is berucht om de tekortkomingen bij het verwerken van voiceberichten, maar met deze nieuwe update zijn die fundamentele problemen opgelost. Apple heeft beloofd dat na toekomstige updates nog complexere opdrachten kunnen worden uitgevoerd via apps van derde partijen, zodat de slimme assistent je hele telefoon kan gaan aansturen zonder dat je je handen hoeft te gebruiken.

Siri + ChatGPT = een gelukkige Apple-gebruiker

De Siri-update waar ik het meest gebruik van maak is het consulteren van ChatGPT. Als Siri een antwoord niet weet, dan wendt het zich tot de chatbot van OpenAI. Die heeft het antwoord in de meeste gevallen wel. De toevoeging van ChatGPT is vooral nuttig voor het analyseren van beelden op je telefoon.

I kan Siri bijvoorbeeld vragen "Wat is er te zien op mijn scherm?" en dan wordt ChatGPT ingeschakeld om dat te beschrijven. Met het indrukken en vasthouden van de nieuwe Camera Control-knop opent een nieuwe Visual Intelligence-interface, waarmee ik een foto kan nemen en daar vragen over kan stellen aan ChatGPT.

Afgelopen week heb ik foto's gemaakt van boeken die ik uitgelezen heb en Visual Intelligence gebruikt om vergelijkbare andere boeken te vinden. Ook heb een foto gemaakt van een fles wijn die ik cadeau had gekregen met het verzoek daar een passend diner bij te verzinnen.

Er waren al vergelijkbare functies beschikbaar op apps van derde partijen, maar nu ze zijn ingebouwd in iOS zijn ze veel makkelijker te gebruiken. En nog belangrijker: de toepassingen die Apple biedt houden je gevoelige data geheim. Zo kan je de geïntegreerde ChatGPT-functie gebruiken zonder account en zorgt Apple er expliciet voor dat OpenAI jouw gesprekken en media niet kan gebruiken voor het trainen van zijn modellen.

Maar het werkt nog lang niet perfect. Vaak duurt het langer totdat ik antwoorden krijg van Siri, dan als ik direct de ChatGPT-app open. Ook is er geen live-modus zoals bijvoorbeeld Google Gemini en Perplexity wel bieden, waardoor ik de virtuele assistent van Apple na elk verzoek opnieuw moet activeren.

Praktische AI tools maakte het af

Dat gezegd hebbende, waardeer het ik het heel erg dat de generatieve AI van Apple zich richt op de dagelijkse praktijk.

Naast de allernuttigste toepassingen die ik al heb geschetst, ben ik ook onder de indruk van de manier waarop Siri telefoongesprekken kan opnemen en uitschrijven en hoe de Photos-app na een korte instructie een filmpje kan maken van je foto's.

Maar hoewel Apple Intelligence de verkoop van de iPhone al een zetje heeft gegeven, is het voor mij toch nog niet genoeg om mijn Android-telefoon weer op te geven. Dat komt vooral door de achterblijvende hardware. Na mijn overstap naar Android vond ik het veel fijner om AI-assistenten te gebruiken op grotere schermen, zoals de opvouwbare die veel makers van Android-telefoons bieden.

LEES OOK: Dit moet je weten over de iPhone 16, de eerste telefoon van Apple die speciaal is ontwikkeld met AI-mogelijkheden en een veel snellere chip heeft