De Europese Commissie heeft ervoor gekozen om een voorstel voor wetgeving in te trekken dat civiele aansprakelijkheid voor AI-toepassingen regelt. Het voorstel is geformuleerd in 2022 en moderniseert de bestaande aansprakelijkheidsregels. De terugtrekkende beweging komt op hetzelfde moment dat de AP constateert dat AI-chatbots gericht op sociale support en therapie grote gezondheidsrisico’s met zich meebrengen.
Als reden voor de intrekking van het wetsvoorstel voert de EC op dat het voorstel op weerstand stuit bij het Europarlement en de Raad, het beslisorgaan van de 27 lidstaten. Dat meldt Reuters. Ook ziet de EC af van het wijzigen van het voorstel, dat de aansprakelijkheid bij schade door AI-toepassingen zou moeten regelen.
Ingewijden stellen echter dat de intrekking van het voorstel voor aansprakelijkheid het gevolg is van verwijten ten aanzien van overregulering richting Brussel. Nog meer regels zouden een rem zetten op innovatie en nog meer regels naast de inmiddels aangenomen AI Act zou dat probleem nog verder vergroten. De AI Act regelt de risico’s van AI op terreinen zoals gezondheid, veiligheid, mensenrechten en democratie.
Voorstanders van de regels zijn teleurgesteld dat er met de intrekking minder waarborgen zijn voor consumenten wanneer zij schade oplopen door AI-toepassingen.
Autoriteit Persoonsgegevens waarschuwt voor grote risico’s therapeutische AI-bots
Gelijktijdig met de terugtrekkende beweging van de Europese Commissie stelt de Autoriteit Persoonsgegevens (AP) vast dat chatbot-apps die zich richten op vriendschap en therapie, risicovol zijn. Sven Stevenson, directeur van de tak binnen de AP die toezicht houdt op algoritmes en AI in Nederland, waarschuwt voor de mogelijke schadelijke effecten van deze chatbots in een toelichting op een halfjaarlijkse rapportage. Naast privacyproblemen levert deze categorie ook risico’s op voor de mentale gesteldheid van mensen die deze chatbots gebruiken, zeker wanneer ze worden ingezet voor persoonlijke problemen of existentiële vragen.
Potentieel schadelijke interacties
Sommige AI-systemen hebben potentieel schadelijke interacties met kwetsbare gebruikers. De chatbots komen empathisch over, maar creëren tegelijkertijd een afhankelijkheidsrelatie met de AI, die niet in staat is echte hulp te bieden. Uit het onderzoek van de AP bleek dat sommige chatbots, wanneer gebruikers impliciet of expliciet spraken over zelfmoordgedachten, ongepaste en reacties gaven die mensen kunnen afhouden van het zoeken van hulp. Omdat het om verdienmodellen gaat, is doorverwijzen naar externe hulp, zoals 113 Zelfmoordpreventie, niet in het belang van de chatbotaanbieder.
Volgens de AP is het hoog tijd voor regulering die ontwikkelaars verplicht om ethische richtlijnen te volgen en duidelijke veiligheidssystemen in te bouwen. (Ziptone, Reuters, AP, NRC)
Praten over suïcide kan anoniem bij 113 Zelfmoordpreventie: chat via www.113.nl, bel 113 of bel gratis 0800-0113
Technologie


