Google озвучила главный недостаток ИИ и предложила способ его устранения

Разработчики Google написали целую научную работу на тему того, как в процессе обучения нейросетей возникают различные аномалии. Речь идёт о недостаточной детализации, которая приводит в лучшем случае к непредсказуемым, а в худшем — к неверным выводам.

В основу проблемы легла сама суть нейросетей, которая сделала технологию столь популярной. Так, обучаясь, алгоритм совершенствуется на определённом наборе данных, после чего приходит к своим собственным итогам. Порой эти итоги могут оказаться совсем не теми, что ожидали создатели нейросети. И в этом нет ничего плохого — наоборот, именно это отличает технологию от прочих.

Но иногда случается так, что выводы, сделанные ИИ, оказываются не просто неожиданными, но и неверными. А так как специалисты не могут контролировать все критерии, которые привели к итоговому результату, то проблема становится ещё более серьёзной.

Сотрудники Google предложили собственную методику, способную помочь избежать чего-то подобного. По мнению инженеров компании, на определённых этапах обучения нейросетей необходимо ввести стресс-тесты, которые позволили бы обнаружить аномалии алгоритма на достаточно раннем сроке.

Источник: tproger.ru

Рейтинг
( Пока оценок нет )
Понравилась статья? Поделиться с друзьями:
murbus
Добавить комментарий