L’enthousiasme suscité par l’agentique — la capacité des grands modèles de langage (LLM) à invoquer des outils pour interagir avec le monde — incite à ignorer une réalité critique mais moins excitante : ces systèmes présentent des vulnérabilités fondamentales qui peuvent avoir des conséquences désastreuses une fois sortis du laboratoire. Entre empoisonnement des données d’entraînement, injections de prompts et absence totale de sens commun des IA, les risques sont multiples et souvent sous-estimés. L’intérêt des agents n’en est pas moindre, mais il est indispensable d’avoir conscience de ces risques et des méthodes pour les minimiser.
Cet article a initialement été publié sur le blog de NeoLegal
Continuer la lecturePrésident et fondateur de NeoLegal, développe des solutions logicielles qui facilitent le quotidien des professionnels du droit des sociétés.