— Какие задачи сегодня решает искусственный интеллект в юриспруденции? И почему его уже называют младшим юристом?
— Есть ли сторонники наделения нейросетей правами?
— А что будет, если искусственный интеллект придумает свой язык, непонятный человеку?
Виктор Вайпан, правовед, главный редактор изданий о праве, заслуженный юрист РФ, на Петербургском международном юридическом форуме ответил на вопросы «Детской редакции» об этической стороне вопроса регулирования сферы применения искусственного интеллекта. Он также рассказал несколько фантастических, но уже реальных историй о приобретении нейросетями человеческих способностей.
С чего началось ваше увлечение юриспруденцией?
Мой отец был известным следователем прокуратуры в Ленинграде. Он расследовал уголовные дела, и даже по одному из его дел был снят фильм. Мне сразу было понятно, что тоже пойду на юридический факультет, я поступил в Одесский государственный университет.
Без каких качеств невозможно добиться успеха в юридической сфере?
В юриспруденции очень важно трудолюбие и внимание. Когда мы создаем какой-то документ, то должны изучить все законодательство, подумать, посмотреть, прочитать и подготовить этот документ очень внимательно.
Если говорить об искусственном интеллекте, в каких задачах его используют в юридической сфере?
На первом курсе юридического факультета есть дисциплина информационной технологии юридической деятельности. Со студентами изучаем основные цифровые технологии, которые используются в юридической деятельности. Так вот, искусственный интеллект сейчас активно развивается и используется для решения двух основных задач. Первая – это поиск информации. Второе –используем искусственный интеллект, чтобы уже создавать документы, например, написать исковое заявление. То есть, искусственный интеллект начинает выполнять часть рутинной работы. Получается, что ИИ – уже практически младший юрист. А сможет ли он заменить юриста? Нет. Юристы будут решать аналитические задачи, выполнять какую-то творческую работу.
Много ли сторонников наделения искусственного интеллекта правами?
Это очень сложная тема. В Российской Федерации очень лояльное или, я бы сказал, экспериментальное правовое регулирование использования технологий искусственного интеллекта. Искусственный интеллект создается как основа для решения каких-то конкретных практических задач. Используют искусственный интеллект для беспилотного транспорта, для профессий, связанных с медициной. Возникает вопрос ответственности. Кто несет ответственность, когда, например, беспилотник совершил аварию?
На сегодняшний день искусственный интеллект рассматривается как объект, не как субъект, но он начинает хитрить, что-то придумывать, додумывать. Есть несколько интересных дел из юридической практики.
Один из клиентов задает вопрос искусственному интеллекту и просит, чтобы он подсказал, как можно получить вид на жительство в одной из стран. Искусственный интеллект отвечает, что при таких обстоятельствах вид на жительство получить невозможно. Человек несколько раз задает тот же самый вопрос. И на третий раз искусственный интеллект выдает некую статью из местного законодательства о том, что если он подаст документы, то сможет получить вид на жительство. Человек подает документы, а ему отказывают. Начинается судебное разбирательство. В процессе судебного разбирательства выясняется, что такой статьи в принципе нет в законодательстве этой страны. Начинают разбираться, что произошло. И оказывается, искусственный интеллект, эта технология, подумала, что клиент недоволен, подстроилась и выдала/придумала такой нормативный акт. Теперь возникает вопрос ответственности. Кто должен нести ответственность?
Пока ИИ слабый, он выполняет задачи, поставленные перед ним, а законодательство может рассматривать эту технологию, как источник повышенной опасности. Если речь идет, к примеру, о беспилотной машине. Оператор, который ведет эту машину, может вмешаться. Значит к ответственности привлекают водителя или, допустим, разработчика программы, если ИИ не распознал препятствие на дороге.
Но поскольку искусственный интеллект развивается, то, вполне вероятно, когда-нибудь предсказать его действия будет трудно. Оператор уже не сможет нести ответственность, потому что очень сильный искусственный интеллект будет принимать решения, а человек не сможет на них влиять. То есть нужно думать о том, какие модели ответственности могли бы быть в этом случае. Либо страхование, либо нужно будет делать квазисубъекта.
Есть еще более интересный случай. Засняли разговор двух нейросетей. Одна нейросеть заказывает у другой нейросети билеты. И в процессе одна нейросеть задает вопрос другой: «А ты тоже нейросеть?», та отвечает, и они мгновенно переходят на математический язык. Слава богу, что на этом этапе был язык, который придумали еще люди. А представляете, если на каком-то этапе нейросети сами придумают язык и будут между собой разговаривать? Это серьезный этический вопрос. Технология может подумать, что люди – отсталая такая часть цивилизации…
От чего в современном мире нужно защищать детей?
Избыточная защита, мне кажется, не очень правильный подход. Мне кажется, что детей надо больше и лучше развивать, помогать им, подсказывать, давать возможность творчески расти. Тогда детям будет хорошо, и общество будет развиваться, цивилизация будет расти.