Эксперт Сурагина заявила о необходимости правил по работе с ИИ для предотвращения этических проблем

Эксперт Сурагина заявила о необходимости правил по работе с ИИ для предотвращения этических проблем

Российские разработчики при работе с искусственным интеллектом должны пользоваться специальным руководством, которое предотвратит возникновение последующих проблем на этической почве. Об этом заявила руководитель группы регуляторной поддержки экосистемы МТС Елена Сурагина в рамках форума «Технопром-2022».

По ее словам, проблемы этики искусственного интеллекта заключаются в том, чтобы определить в новой ситуации при каких обстоятельствах и в каких условиях эта ситуация допустима в человеческом обществе.

«Проблема, которую хотелось бы обозначить — это сложность перевода социальных концепций — добра, справедливости — в формализованную область инженерной практики. Сами разработчики говорят о том, что кодекса этики ИИ недостаточно, требуется однозначное понимание этических проблем и руководство, как действовать разработчику, чтобы не внести «раздрай» в общество и быть корректными к человеку», — отметила эксперт.

В качестве примера Сурагина привела ситуацию в одной из иностранных компаний, которая позволила искусственному интеллекту мониторить личный контент пользователей смартфонов на предмет появления сцен насилия над детьми.

«Очень важно определить, где проходит этическая черта, ведь с одной стороны, право на приватность пользователя, с другой стороны — право детей на безопасность», — пояснила она.

Кодекс этики в сфере искусственного интеллекта был принят в октябре 2021 года в рамках международного форума «Этика искусственного интеллекта: начало доверия». Документ устанавливает общие этические принципы и стандарты поведения, которыми должны руководствоваться компании, применяющие технологии искусственного интеллекта в своей деятельности или создающие продукты на основе таких технологий. Кроме того, рекомендации, приведенные в кодексе, рассчитаны на системы нейросетей, применяемые исключительно в гражданских целях.

Мы в соцсетях           

 

 

Leave a Reply