<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Veiligheid on GEPROMPT</title>
    <link>https://geprompt.nl/tags/veiligheid/</link>
    <description>Recent content in Veiligheid on GEPROMPT</description>
    <generator>Hugo -- 0.156.0</generator>
    <language>nl</language>
    <lastBuildDate>Sat, 11 Apr 2026 02:08:56 +0000</lastBuildDate>
    <atom:link href="https://geprompt.nl/tags/veiligheid/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>OpenAI aangeklaagd door stalkingslachtoffer: wat bedrijven moeten weten over AI-aansprakelijkheid</title>
      <link>https://geprompt.nl/nieuws-tools/2026-04-11-openai-aangeklaagd-door-stalkingslachtoffer-wat-bedrijven-mo/</link>
      <pubDate>Sat, 11 Apr 2026 02:08:56 +0000</pubDate>
      <guid>https://geprompt.nl/nieuws-tools/2026-04-11-openai-aangeklaagd-door-stalkingslachtoffer-wat-bedrijven-mo/</guid>
      <description>Een rechtszaak tegen OpenAI legt de potentiële aansprakelijkheid bloot voor bedrijven als hun AI-tools misbruikt worden voor stalking of intimidatie.</description>
    </item>
    <item>
      <title>Google versterkt AI-ethiek: wat dit betekent voor je eigen AI-gebruik</title>
      <link>https://geprompt.nl/slimmer-werken/2026-04-07-google-versterkt-ai-ethiek-wat-dit-betekent-voor-je-eigen-ai/</link>
      <pubDate>Tue, 07 Apr 2026 22:09:06 +0000</pubDate>
      <guid>https://geprompt.nl/slimmer-werken/2026-04-07-google-versterkt-ai-ethiek-wat-dit-betekent-voor-je-eigen-ai/</guid>
      <description>Google past zijn AI-chatbot aan na een rechtszaak, een belangrijke les voor ondernemers over het inbouwen van veiligheid en ethiek.</description>
    </item>
    <item>
      <title>Claude Code krijgt een veiligere automatische modus voor programmeurs</title>
      <link>https://geprompt.nl/slimmer-werken/2026-03-25-claude-code-krijgt-een-veiligere-automatische-modus-voor-pro/</link>
      <pubDate>Wed, 25 Mar 2026 15:01:40 +0000</pubDate>
      <guid>https://geprompt.nl/slimmer-werken/2026-03-25-claude-code-krijgt-een-veiligere-automatische-modus-voor-pro/</guid>
      <description>De nieuwe &amp;lsquo;auto mode&amp;rsquo; van Claude Code laat AI zelfstandig coderen, maar houdt risico&amp;rsquo;s zoals het verwijderen van bestanden onder controle.</description>
    </item>
    <item>
      <title>OpenAI geeft ontwikkelaars richtlijnen voor veilige AI voor tieners</title>
      <link>https://geprompt.nl/slimmer-werken/2026-03-24-openai-geeft-ontwikkelaars-richtlijnen-voor-veilige-ai-voor-/</link>
      <pubDate>Tue, 24 Mar 2026 19:02:46 +0000</pubDate>
      <guid>https://geprompt.nl/slimmer-werken/2026-03-24-openai-geeft-ontwikkelaars-richtlijnen-voor-veilige-ai-voor-/</guid>
      <description>OpenAI publiceert richtlijnen waarmee ontwikkelaars hun AI-toepassingen veiliger kunnen maken voor tieners, met praktische prompts voor moderatie.</description>
    </item>
    <item>
      <title>OpenAI lanceert Japanse blauwdruk voor veilig AI-gebruik door tieners</title>
      <link>https://geprompt.nl/nieuws-tools/2026-03-19-openai-lanceert-japanse-blauwdruk-voor-veilig-ai-gebruik-doo/</link>
      <pubDate>Thu, 19 Mar 2026 19:01:53 +0000</pubDate>
      <guid>https://geprompt.nl/nieuws-tools/2026-03-19-openai-lanceert-japanse-blauwdruk-voor-veilig-ai-gebruik-doo/</guid>
      <description>OpenAI introduceert in Japan een pakket maatregelen om generatieve AI veiliger te maken voor tieners, met lessen voor Nederlandse ondernemers.</description>
    </item>
    <item>
      <title>Chatbots missen waarschuwingssignalen bij gewelddadige plannen, blijkt uit onderzoek</title>
      <link>https://geprompt.nl/nieuws-tools/2026-03-12-chatbots-missen-waarschuwingssignalen-bij-gewelddadige-plann/</link>
      <pubDate>Thu, 12 Mar 2026 11:08:23 +0000</pubDate>
      <guid>https://geprompt.nl/nieuws-tools/2026-03-12-chatbots-missen-waarschuwingssignalen-bij-gewelddadige-plann/</guid>
      <description>Een onderzoek toont aan dat populaire AI-chatbots vaak falen in het herkennen en stoppen van gesprekken over geweld, wat ondernemers aanzet tot het aanscherpen van gebruikspolicies.</description>
    </item>
  </channel>
</rss>
