Искусственный интеллект сейчас активно развивается в нашей стране, находится в фокусе внимания государственной власти и высокотехнологичных компаний, есть национальная стратегия его развития и отдельный федеральный проект. Подготовлен проект этического кодекса, возможно появление омбудсмена или специального органа, который будет отвечать за цифровую этику. Принципы «верхнего уровня» предполагается закрепить законодательно, а отраслевые нормы будут приниматься игроками рынка в рамках саморегулирования. Об этом говорилось на сессии Дискуссионного клуба ВШЭ и Сбера — «ИИ-трансформация компаний и государства: Развитие этики ИИ в России и в мире».
 
Проректор, директор Института государственного и муниципального управления НИУ ВШЭ Андрей Жулин уверен, что мир пока очень далек от того, чтобы искусственный интеллект принимал какие-то решения или даже их подсказывал.
 
«Недавно мы выпустили доклад, согласно которому около 30% функций федеральных органов власти относятся к рутинным и за счет цифровизации могут быть исключены или заменены. Но речь еще не идет про искусственный интеллект, речь идет про достаточно простые алгоритмы, простую работу с данными. Мне кажется, мы еще долго не подойдем к тому, что для каких-то решений, даже очень простых, будет применяться искусственный интеллект. Если выстраивать нормальный искусственный интеллект, нужны большие объемы хороших данных, хорошие учетные системы, что, на наш взгляд, наблюдается в очень небольшом количестве сфер. Плюс в государстве в целом еще не решен вопрос работы с большими данными», — поделился мнением эксперт.
 
Первый заместитель председателя правления Сбербанка Александр Ведяхин, в свою очередь, отметил, что в данном случае многое зависит от выборки, то есть от материала, используемого для обучения искусственного интеллекта. По его словам, уже сейчас ИИ приносит ощутимую пользу — например, помогает врачам при диагностике пациентов с COVID-19, позволяя на ранней стадии выявить потенциально тяжелые случаи, требующие особого внимания. Кроме того, как рассказал Ведяхин, в США искусственный интеллект исполняет роль помощника судей, подсказывая им возможные решения по рассматриваемым делам.
 
«Искусственный интеллект во многом похож на ребенка — как мы его сейчас научим, так он и будет себя вести в будущем. Помните известную историю о том, как к мудрецу привели трехлетнего ребенка и попросили его обучить? А мудрец ответил, что уже поздно, все сделано до него. Сейчас же у нас есть уникальная возможность, когда нашему ребенку еще совсем мало дней по шкале человеческой жизни, и он научился только отличать кошек от собак. Поэтому мы можем рассказывать ему, что такое хорошо и что такое плохо, и только тогда быть уверенным, что действительно все произойдет правильно. Как и в любом воспитании, есть рамки, в которых должен воспитываться ребенок, и пример родителей, тех, кто его обучает, наставляет, отдает данные, пишет алгоритмы, верифицирует, очень важен. А наш ребенок – искусственный интеллект – должен делать все, чтобы уважать своих «родителей» и помогать им», — заключил Александр Ведяхин.
 
Он также рассказал, что Сбер подготовил мировой обзор корпоративных принципов этики ИИ. Согласно исследованию, в настоящее время такие принципы приняты почти у 30 крупнейших разработчиков ИИ в мире. Большинство принципов этики ИИ были приняты в период с 2018 по 2019 год. В среднем компании утвердили по шесть принципов, самыми популярными из них являются справедливость и непредвзятость (приняты в 18 компаниях), безопасность и надёжность (в 18 компаниях), прозрачность (в 17), подотчётность (в 11), управляемость и контролируемость (в 11), человеко-ориентированный подход и уважение прав человека (в 10).

Let’s block ads! (Why?)