reserche
High-techil y a 1 heures
Dario Amodei, PDG d'Anthropic, Mike Krieger, directeur des produits, et Sasha de Marigny, directrice de la communication, lors de la première conférence des développeurs d'Anthropic à San Francisco, en Californie, le 22 mai 2025.
Dario Amodei, PDG d'Anthropic, Mike Krieger, directeur des produits, et Sasha de Marigny, directrice de la communication, lors de la première conférence des développeurs d'Anthropic à San Francisco, en Californie, le 22 mai 2025. © JULIE JAMMOT / AFP
Anthropic

Claude et le stress des machines : quand l’IA dit stop

Une IA peut-elle souffrir ? La question, hier encore confinée aux spéculations philosophiques, vient de faire son entrée dans un communiqué officiel d’Anthropic. L’entreprise de la Silicon Valley explique que son modèle Claude peut désormais mettre fin à certaines conversations « abusives », invoquant une « détresse apparente » observée en test. Entre précaution ingénierique et révolution morale, l’ambiguïté est totale. Et ce flou, plus encore que la fonction elle-même, est ce qui crée le vertige.

Claude et le stress des machines : quand l’IA dit stop