Online discussieplatform Reddit profiteert volop van generatieve AI. Deals met OpenAI en Google halen miljoenen per jaar binnen door de content van gebruikers beschikbaar te maken voor AI-training. Die inkomstenbron wil het voortaan beschermen door beginnende AI-dataverzamelaars te weren.
Reddit gaat een eigen webstandaard updaten om geautomatiseerde datavergaring een halt toe te roepen. Door de wijziging aan robots.txt (ook wel “Robots Exclusion Protocol”) limiteert het platform het aantal verzoeken dat een enkele entiteit kan doen.
De partijen die vanzelfsprekend nog wel volop data mogen vergaren van Reddit, zijn OpenAI en Google. Er is geen bedrag genoemd bij de aankondiging van de deal met OpenAI, maar van Google is bekend dat het 60 miljoen dollar per jaar overmaakt om van Reddit-data gebruik te mogen maken.
Verdere afsluiting
Het is een volgende stap voor Reddit om de eigen inkomsten te garanderen. Eerder maakte het een opvallend succesvolle beursgang, geholpen door aankondigingen rondom de eerder genoemde deals met OpenAI en Google. Vorig jaar had het al gezinspeeld op verdere winstoptimalisatie door de eigen API achter een betaalmuur te zetten. Dit zorgde ervoor dat allerlei third-party Reddit-apps moesten opdoeken, aangezien zij anders miljoenen hadden moeten betalen om de API-calls te bekostigen.
Nu tracht Reddit het nieuwe businessmodel verder in te kapselen. Enkel AI-spelers met genoeg kapitaal kunnen nog bij Reddits data. Althans, dat is de bedoeling: het controversiële AI-bedrijf Perplexity zou bijvoorbeeld robots.txt omzeilen om data te vergaren, aldus Wired. Data scraping kan tot torenhoge kosten leiden voor de geraadpleegde website. Het is dus niet al te verrassend dat Reddit deze praktijken wil voorkomen. Dat liet CEO Steve Huffman bijvoorbeeld al ruim een jaar geleden weten, nog voordat de eigen API werd afgeschermd of het bedrijf de beurs op ging.
Lees ook: OpenAI sluit opnieuw deal met mediabedrijven voor gebruik van content