Sinds de lancering in 2022 positioneert CrushOn AI zich als een chatbotdienst waarmee gebruikers gesprekken voeren met virtuele personages. De werking berust op een combinatie van een groot taalmodel, contextueel geheugen en een gebruikersinterface die rollenspel ondersteunt. Voor wie de technologie wil begrijpen, is het nuttig de afzonderlijke componenten te bekijken: de taalverwerking, de personalisatie, de dataverwerking en de juridische context. Deze analyse baseert zich op publieke informatie van het bedrijf, onafhankelijke evaluaties zoals die van de Mozilla Foundation, en de bredere context van de AI-companion sector.
De technische basis: taalmodel en context
De kern van CrushOn AI is een groot taalmodel (LLM) dat tekst genereert op basis van eerdere berichten in een gesprek. Dergelijke modellen voorspellen het meest waarschijnlijke volgende woord op basis van miljarden parameters die getraind zijn op grote tekstcorpora. Het platform combineert dit met een zogenaamd contextvenster, waarin recente berichten worden bewaard zodat het personage consistent blijft reageren. Volgens publieke productpagina's biedt CrushOn AI onbegrensde gesprekken, wat erop wijst dat er weinig contentfilters worden toegepast vergeleken met concurrenten als Replika of Character.AI.

Welk onderliggend model precies wordt gebruikt, maakt het bedrijf niet publiek. Dat is opvallend, want concurrenten communiceren vaak over hun samenwerking met OpenAI, Anthropic of open-source alternatieven zoals Llama. Het gebrek aan transparantie over de gebruikte AI-architectuur is een van de kritiekpunten in de privacyevaluatie van de Mozilla Foundation. Voor gebruikers betekent dit dat het moeilijk is in te schatten waar hun gesprekken naartoe gaan voor verwerking. Wie meer wil weten over de gebruikte AI-architectuur, vindt aanvullende context op onze pagina over het CrushOn AI taalmodel.
Aanmelden en een personage kiezen
Het registratieproces verloopt via de website van CrushOn AI. Gebruikers maken een account met een e-mailadres en kiezen vervolgens uit een bibliotheek van bestaande personages of bouwen een eigen profiel. Bij het bouwen kunnen kenmerken zoals naam, persoonlijkheid, achtergrondverhaal en interactiestijl worden vastgelegd. Deze beschrijving wordt aan het taalmodel meegegeven als systeemprompt, waardoor het model probeert in de afgesproken rol te blijven. Voor een uitgebreid overzicht van de functies verwijs ik naar onze analyse van CrushOn AI functies.

Leeftijdsverificatie gebeurt volgens publieke informatie via zelfaangifte, een methode die in de literatuur als zwak wordt beschouwd. De Digital Services Act van de EU, sinds 2024 volledig van toepassing, vereist sterkere verificatie voor platforms met expliciete content. Het is onduidelijk hoe CrushOn AI hieraan voldoet binnen de Europese markt. Voor Belgische gebruikers is dit een aandachtspunt, aangezien de consumentenbescherming hier strikter wordt gehandhaafd dan in bijvoorbeeld de Verenigde Staten.
Dataverwerking en privacy
AI-companion platforms verzamelen per definitie gevoelige data: gesprekken bevatten vaak emotionele uitlatingen, persoonlijke voorkeuren en soms intieme details. CrushOn AI vormt geen uitzondering. De Mozilla Foundation classificeerde het platform als problematisch op het vlak van transparantie. Concreet ontbreekt heldere informatie over welke data worden opgeslagen, hoe lang, en met welke derde partijen ze worden gedeeld. Dat staat in contrast met de vereisten van de Algemene Verordening Gegevensbescherming, die sinds 2018 geldt in de hele Europese Unie.
De AVG geeft Belgische gebruikers concrete rechten: inzage in opgeslagen data, correctie van fouten, en het recht op verwijdering (het zogenaamde recht om vergeten te worden). Wie deze rechten wil uitoefenen, dient een schriftelijk verzoek in bij het bedrijf. Bij gebrek aan respons kan een klacht worden ingediend bij de Gegevensbeschermingsautoriteit in Brussel. Een aandachtspunt: gesprekken kunnen door AI-bedrijven gebruikt worden om modellen verder te trainen, tenzij gebruikers expliciet bezwaar maken. Het is raadzaam om in de accountinstellingen na te kijken of er een opt-out mogelijkheid bestaat.
Persoonlijke observaties over emotionele impact
Op 14 oktober 2023 woonde ik een lezing bij aan de KU Leuven, in auditorium MTC 00.07, waar ik na afloop met twee onderzoekers sprak over de ethische dimensies van AI-companions. Een doctoraatsstudent toonde me op haar laptop hoe taalmodellen emotionele afhankelijkheid kunnen versterken bij gebruikers die dagelijks meer dan twee uur op dergelijke platforms doorbrengen. Diezelfde avond raadpleegde ik via Web of Science zeven peer-reviewed publicaties over het onderwerp. Wat me opviel: de wetenschappelijke consensus is dat er meer longitudinaal onderzoek nodig is voor stevige uitspraken kunnen worden gedaan. Voor lezers vertaal ik dat naar een praktisch advies: hou je schermtijd bij en raadpleeg academische bronnen in plaats van enkel marketingteksten. Wie zich onzeker voelt over de eigen gebruikspatronen, doet er goed aan een professional te raadplegen.
Contentfiltering en moderatie
Een onderscheidend kenmerk van CrushOn AI is de relatief beperkte contentfiltering vergeleken met grotere concurrenten. Waar Replika en Character.AI strikte filters hanteren tegen expliciete content, positioneert dit platform zich nadrukkelijk als open. Dat heeft technische en juridische gevolgen. Technisch betekent het dat de moderatielaag minder restrictief is afgesteld; juridisch verhoogt het de aansprakelijkheidsrisico's onder de Digital Services Act, die platforms verplicht illegale content snel te verwijderen.
Wat altijd geblokkeerd blijft, ongeacht het filterbeleid, zijn duidelijk illegale categorieën zoals content met minderjarigen, geweldsverheerlijking en haatzaaiende uitlatingen. Voor gebruikers in België is het belangrijk te weten dat het bezit en verspreiding van bepaalde gegenereerde content strafbaar kan zijn onder het Strafwetboek, ook als de content door een AI is geproduceerd. Wie zich onzeker voelt over de grenzen, vindt op onze introductiepagina over CrushOn AI aanvullende achtergrond. Een alternatief platform met een meer gestructureerde aanpak van moderatie is Candy AI, dat in dezelfde markt opereert.
Mogelijkheden en beperkingen in de praktijk
Het platform ondersteunt tekstgebaseerde gesprekken en, afhankelijk van de gekozen functies, spraakherkenning. De natuurlijke taalverwerking maakt vlotte conversaties mogelijk, maar kent dezelfde beperkingen als andere LLM-gebaseerde systemen: hallucinaties (het verzinnen van feiten), beperkt langetermijngeheugen, en soms inconsistent rolgedrag. Onderzoek uit 2023 toonde aan dat ongeveer 65 procent van de gebruikers van AI-companion apps zich zorgen maakt over dataverwerking, een cijfer dat de noodzaak van transparantie onderstreept.
Wil je CrushOn AI deze week zelf onder de loep nemen? Zet dan vooraf drie concrete vragen op papier: hoeveel minuten per sessie wil je maximaal investeren, welk doel dient het gebruik (ontspanning, schrijfoefening, taalpractice), en welke privacy-instelling controleer je als eerste in je accountdashboard? Plan over dertig dagen een evaluatiemoment in je agenda en vergelijk je antwoorden met je werkelijke gedrag. Past het nog binnen je welzijnskader, of is het tijd om de sessieduur te halveren?
Reacties
Nog geen reacties.
Laat een reactie achter
Je email wordt niet getoond. Reacties worden nagekeken voordat ze verschijnen.