5 min read

De opkomst van de timeline-app

De opkomst van de timeline-app
Foto: Eddy Billard / Unsplash

In deze nieuwsbrief wil ik het met je hebben over:

  • Timeline-apps geven je controle over welke content je te zien krijgt.
  • Het bedrijf achter TikTok heeft een AI-model ontwikkeld dat zeer realistische deepfakes kan maken.

Timeline-apps geven je controle over welke content je te zien krijgt

De afgelopen jaren zorgden al voor twijfel over de macht van techbedrijven en de afhankelijkheid van hun platforms en algoritmes in de verspreiding van en toegang tot informatie. De recente ontwikkelingen in de VS zetten die twijfel om tot een bepaalde mate van paniek.

Uiteraard zijn er alternatieven. In veel WhatsApp-groepen waar ik in zit, zijn er mensen die proberen de hele groep mee te krijgen naar Signal. Met wisselend succes overigens. En op BlueSky wordt het steeds gezelliger.

Voor bijna elk platform zijn er open alternatieven en de zogeheten fediverse breidt zich steeds verder uit. Tegelijkertijd zie ik het nog steeds niet gebeuren dat het grote publiek de overstap maakt naar alternatieven voor de grote platforms. Daarvoor is de macht, het netwerkeffect en de verslavingsmechanismes van deze bedrijven simpelweg te groot.

Tegelijkertijd geloof ik dat er markt is voor apps/tools die je helpen om content/informatie van al die verschillende netwerken samen te brengen en te ontdoen van de nodige ruis.

Ooit was de RSS-reader de manier voor nieuwsjunks om een grote hoeveelheid sites te volgen, maar met de dood van Google Reader en de groei van sociale media verdween de RSS-reader. Niet voor iedereen trouwens, want ik ben al die tijd een RSS-reader blijven gebruiken en zou niet weten hoe ik deze nieuwsbrief zonder zou moeten maken.

Echter, niet alles wat potentieel interessant is, wordt op websites gepost en een RSS-reader is daardoor eigenlijk niet meer voldoende. Reeder, de RSS-reader die ik gebruik, introduceerde vorig jaar een compleet nieuwe versie waarin je allerlei vormen van media kunt volgen: artikelen, video's, podcasts, social-media-posts. En er worden steeds meer van dat soort apps gemaakt.

Iconfactory, het bedrijf dat populaire Twitter-app Twitterrific maakte, bracht deze week Tapestry uit. Je kunt RSS-feeds, YouTube-kanalen, berichten op Bluesky, Mastodon en Tumblr volgen in één chronologische tijdlijn. Daarbij heb je ook wat handige opties om berichten te filteren.

Eén ding kan echter niet: reageren of zelf dingen delen. Dit soort apps, die timeline-apps worden genoemd, zijn echt bedoeld om content te consumeren. En heel eerlijk: ik vind dat heerlijk.


Het bedrijf achter TikTok heeft een AI-model ontwikkeld dat zeer realistische deepfakes kan maken

De meest zorgelijke ontwikkeling op AI-gebied op korte termijn is in mijn ogen hoe snel modellen voor foto's en video's beter worden. En hoe deze technologie ook steeds toegankelijker en makkelijker te gebruiken wordt, waardoor iedereen nepbeelden kan maken en verspreiden.

In september schreef ik bijvoorbeeld over de fotobewerkingstool die Google standaard in zijn Pixel-telefoons stopt. Hiermee kun je met een simpele opdracht elementen toevoegen aan een foto of juist weghalen. En het is verdomd lastig om, als je het eindresultaat ziet, door te hebben dat het een gemanipuleerde foto is.

Als het gaat om bewegend beeld dan zijn de AI-modellen nog iets minder ver, waardoor gegenereerd beeld nog relatief makkelijk herkenbaar is als je goed kijkt. De videomodellen gaan echter met grote sprongen vooruit. Als de vooruitgang die vorig jaar geboekt is op dit vlak, een voorbode is voor hoe de ontwikkeling dit jaar zal verlopen, dan zal het tegen het einde van dit jaar erg lastig zijn om door AI gegenereerd beeld te herkennen.

Een voorbeeld daarvan is een nieuw AI-model dat ByteDance (ja, die van TikTok) heeft gedeeld met de buitenwereld. Je geeft OmniHuman-1 een foto en een audio-opname van iemand en je kunt hyperrealistische deepfakes maken van zowel pratende als zingende mensen.

Enkele voorbeelden:

0:00
/0:16
0:00
/0:23
0:00
/0:10

Bij de laatste video zie je nog wel dat handen ongelofelijk lastig blijven voor dit soort modellen, maar OmniHuman-1 doet het op dat vlak al veel beter dan veel andere videomodellen.

Uiteraard zijn de voorbeeldvideo's door de onderzoekers zelf uitgekozen en zij selecteren natuurlijk de beste video's om hun werk te delen, maar desondanks is het ongelofelijk knap en tegelijk erg zorgelijk wat deze onderzoekers hebben ontwikkeld. Daarmee komt er, na het taalmodel R1 van DeepSeek, voor de tweede keer dit jaar een opzienbarend AI-model uit China.


Kort