«Peut-on apprendre à un robot à faire le bien ?», se demande New Scientist. Alan Winfield, chercheur au laboratoire robotique de Bristol (dans le sud-ouest de l'Angleterre) était persuadé du contraire, jusqu'à ce qu'il tente une expérience. Il a programmé un robot pour qu'il empêche d'autres robots agissant comme des humains de tomber dans un trou. Le robot a tout d'abord réussi sa tâche lorsqu'il n'y avait qu'un seul «humain». Lorsqu'un second a été ajouté, le robot n'en a parfois sauvé qu'un, parfois les deux, mais presque la moitié du temps il a été si long à prendre une décision que les deux sont tombés dans le trou. Comment un robot peut-il être tiraillé par des considérations éthiques ? Ronald Arkin, chercheur en informatique à la Georgia Tech d'Atlanta, a inventé des algorithmes pour aider les robots militaires à prendre des décisions raisonnées sur les champs de bataille. Selon New Scientist, son programme permettrait notamment à des drones de décider de tirer ou non afin de minimiser les pertes civiles. Pour l'instant, ces robots ne sont pas (encore ?) dotés de libre arbitre. Mais si les recherches se poursuivent dans cette voie, leurs champs d'applications sont inépuisables. Le même type de réflexions se posent pour les voitures autonomes.