Аннотация:
Принято считать, что доверие к системе искусственного интеллекта (ИИ) определяется уверенностью потребителя и организаций-регуляторов в том, что данная система способна выполнять возложенные на нее задачи с требуемым качеством. В научной литературе речь идет только о повышении доверия, но не о гарантиях доверия к результатам работы ИИ. В трактовке повышения доверия естественно полагать, что доверия к результатам работы ИИ нет. В данной статье построена математическая модель, в рамках которой доказано, что в классе систем ИИ, построенных на машинном обучении, гарантий доверия быть не может. Определено понятие «доверия классификатору», если он с вероятностью $1$ правильно классифицирует новые данные. Результат получен в условиях классического пространства данных $R^L$ и набора равномерных распределений. Модель можно усложнять, оставляя пространство метрическим, а распределения непрерывными. При этом доверие не зависит от способностей классификатора и от свойства генерализации.
Ключевые слова:
машинное обучение, доверие, классификация, причинно-следственные связи.
Поступила в редакцию: 26.03.2025 Принята в печать: 15.05.2025