Сегодня трудно найти хотя бы одну отрасль, в которой бы не использовали ИИ. Однако, согласно исследованиям, 80% проектов на базе AI-технологии заканчиваются неудачей. Одна из главных причин – некачественные данные, которые используются для обучения и работы ИИ-инструментов.
Константин Смирнов, коммерческий директор департамента аналитических решений ГК «КОРУС Консалтинг», расскажет, почему же корректные данные играют такую важную роль в работе с искусственным интеллектом и что бывает, если не удается использовать качественные данные? Рассмотрим, в каких областях некорректные данные могут нивелировать работу даже самых передовых ИИ-решений.Качество обучения
Если данные, которые используются для обучения ИИ-моделей некорректны или неполны, то модель не сможет точно определять закономерности и делать правильные выводы. Например, ИИ-инструмент для диагностики заболеваний, обученный на неточных медицинских записях, будет выдавать неверные диагнозы, что, понятно, может привести к серьёзным последствиям для здоровья пациентов.
Нейтральное отношение
Данные, содержащие предвзятые или дискриминационные элементы, приводят к тому, что ИИ «наследует» предвзятое отношение. Например, если алгоритм набора персонала обучен на основе данных, исходя из которых предпочтение отдается кандидатам определённого пола или национальности, то ИИ будет продолжать эту практику.
Например, американская информационная система COMPAS, созданная для прогнозирования рецидива преступников, недавно подверглась обширной критике за дискриминацию на расовой основе. Это произошло из-за того, что исторические данные, использованные для её обучения, содержали заведомо предвзятую информацию, и в итоге система говорила, что скорее всего преступления совершит человек с конкретной расы и национальности.Точность и надежность
Данные должны быть точными и надежными, чтобы ИИ-решения работали корректно. В беспилотных автомобилях, например, ошибки в данных могут привести к авариям и к жертвам. Например, в некоторых случаях автопилот Tesla неправильно интерпретировал дорожные знаки и разметку, что приводило к аварийным ситуациям. В одном из инцидентов автопилот принял белую боковую полосу на дороге за продолжение пути, что привело к столкновению.
Проект Google Flu Trends, запущенный для прогнозирования распространения гриппа на основе поисковых запросов, потерпел неудачу, потому что использовал некорректные данные. Из-за неправильной интерпретации запросов и избыточного «шума» в данных, система часто давала неточные прогнозы. В итоге на нее просто перестали полагаться.Источник: vc.ru
Остались вопросы? Пишите на data@korusconsulting.ru
И подписывайтесь на наш телеграм-канал про аналитику и данные Analytics Now
Остались вопросы? Пишите на data@korusconsulting.ru
И подписывайтесь на наш телеграм-канал про аналитику и данные Analytics
Now