В процессе обучения искусственного интеллекта машины выполняют специфические действия и контролируют результат, потом соответствующим образом адаптируют свое поведение и контролируют новый результат, затем снова адаптируют свое поведение и так далее, обучаясь на основе итеративного процесса. Но не может ли этот процесс выйти из-под контроля? Это вполне возможно.