Antropische grenzen Claude: op welke vragen kan zijn kunstmatige intelligentie geen antwoord geven?

Anthropic, het Amerikaanse bedrijf voor kunstmatige intelligentie , heeft besloten de beveiliging van zijn chatbot Claude te versterken door duidelijke limieten te stellen aan het soort vragen dat de bot weigert te beantwoorden. Deze maatregel is een reactie op internationale zorgen over de mogelijk schadelijke toepassingen van geavanceerde AI .
Het bijgewerkte beleid breidt bestaande verboden uit en omvat expliciet een verbod op de ontwikkeling van explosieven en biologische, nucleaire, chemische of radiologische (CBRN) wapens . Claude mocht voorheen geen gevaarlijke stoffen produceren of distribueren, maar de nieuwe regelgeving specificeert de risicoscenario's verder.
Vanaf mei 2025 wil Anthropic met de komst van Claude Opus 4 en de implementatie van het AI Safety Level 3- systeem het moeilijker maken om het model te compromitteren of te gebruiken voor advies over de creatie van CBRN-wapens .
Het bedrijf heeft ook de regels voor geavanceerde functies van Claude bijgewerkt, zoals Computergebruik , waarmee de AI kan communiceren met de computer van de gebruiker, en Claude Code , gericht op ontwikkelaars. Anthropic waarschuwde voor de risico's van deze mogelijkheden, waaronder wijdverbreid misbruik, het creëren van malware en cyberaanvallen .
Een belangrijke nieuwe functie is de sectie 'Computer- of netwerksystemen niet in gevaar brengen' , die activiteiten zoals het detecteren van kwetsbaarheden, het verspreiden van schadelijke code of denial-of-service-aanvallen verbiedt. Dit beperkt scenario's waarin Claude zou kunnen worden gebruikt als hulpmiddel voor geavanceerde cybercriminaliteit .
In de politieke arena evolueert de regelgeving: Anthropic reguleert nu alleen content die misleidend is of democratische processen verstoort , in plaats van alle politieke campagnes of lobbyactiviteiten te verbieden. De verhoogde beveiligingseisen gelden alleen voor consumentgerichte activiteiten , niet voor business-to-business-omgevingen.
De update valt samen met technische verbeteringen aan Claude, dat nu een contextvenster van 1 miljoen tokens heeft in de Sonnet 4- versie, wat overeenkomt met 750.000 woorden of 75.000 regels code . Deze limiet is vijf keer zo groot als de vorige capaciteit en overtreft zelfs OpenAI's GPT-5 .
Brad Abrams, productmanager bij Anthropic, benadrukte dat deze contextuitbreiding vooral nuttig is bij ontwikkeling en codering , en dat dit platformen zoals GitHub Copilot, Windsurf en Anysphere's Cursor ten goede komt. AI kan grote hoeveelheden data in realtime analyseren, wat complexe technische projecten en taken die diepgaande code-interpretatie vereisen, vergemakkelijkt.
Met deze updates streeft Anthropic naar een evenwicht tussen technologische innovatie en ethische verantwoordelijkheid , waardoor Claude een krachtige, maar toch veilige en betrouwbare tool blijft. Gebruikers moeten zich bewust zijn van de beperkingen van het model, met name in risicovolle contexten, terwijl bedrijven de nieuwe contextmogelijkheden kunnen benutten voor grootschalige projecten en complexe data-analyses .
La Verdad Yucatán