Есть сферы, где связанные с искусственным интеллектом риски огромны — евродепутат

Обратите внимание: материал опубликован 1 год и 1 месяц назад

Задача Европарламента (и, видимо, законодателей на национальном уровне) — в том, чтобы научиться регулировать применение искусственного интеллекта (ИИ), учитывая риски, связанные с ним в различных отраслях. И делать это достаточно быстро, чтобы поспевать за стремительно развивающимися технологиями, сказал депутат Европарламента Ивар Иябс передаче «Домская площадь» на Латвийском радио 4.

«Искусственный интеллект — это революционная технология, которая изменит очень многие отрасли в нашей жизни. Это уже происходит. Мы это видим в случае с Chat GPT, когда можно, например, искусственному интеллекту заказать эссе на заданную тему, сдать это преподавателю в университете или школе, и никто не почувствует подвоха. Это только один способ применения, а их очень много: от автопилота для машин до возможности очень точно анализировать рентгеновские снимки. Так что это революционная технология, которая входит в разные отрасли жизни. И

надо бы сделать так, чтобы машина служила человеку, а не человек машине»,

— заявил И. Иябс.

Но возможно ли разработать регулирование для использования ИИ во всех сферах жизни? Гость передачи признает, что это непросто, поскольку технологии развиваются быстрее законодательства. К тому же эта сфера стала всерьез интересовать широкие массы сравнительно недавно — во второй половине прошлого года, когда Chat GPT пошел в массы. Однако, то, что разработка законодательства отстает от развития регулируемой сферы, не означает, что ею вовсе не надо заниматься.

И. Иябс пояснил, что Европарламент сейчас смотрит на ИИ через призму рисков.

«Есть сферы нашей жизни, где эти риски огромны, и там совсем другие требования к искусственному интеллекту.

Тут должна быть явно процедура сертификации. Например, в транспортной отрасли. Понятно, что можно пользоваться ИИ для планирования общественного транспорта, но ясно и то, что это связано с большими рисками. Так что программы [в таких сферах] должны проходить тщательное изучение», — сказал он.

Есть такие риски, которые вообще неприемлемы. Например, связанные со сбором данных физических лиц в публичных местах. В то же время если алгоритмы Netflix или Spotify предлагают пользователю новый фильм или песню, исходя из его предыдущего выбора, вероятно, это не так уж опасно.

«Так что надо смотреть. Для каждой отрасли и каждого риска — своя процедура, которую приложение или программа должна проходить до появления на рынке», — считает Ивар Иябс.

Он отметил, что связанные с ИИ риски не всегда можно легко определить и классифицировать, и безобидная программа в каких-то условиях может оказаться опасной. К примеру, тот же Chat GPT: можно заказать ему эссе для школы, а можно попытаться с его помощью собрать бомбу.

«Понятно, что в этой отрасли все будет очень быстро идти вперед. Для нас главное поспевать за этими технологическими изменениями»,

— заключил политик.

Ранее преподаватель Латвийского университета Игорь Губенко отметил, что появление Chat GPT ставит множество вопросов перед отраслью образования (например, считать ли его соавтором работ, для создания которых его используют) и вообще до неузнаваемости меняет весь процесс обучения.

Тему Chat GPT и авторства в эфире ЛР-4 затронул и ректор Латвийского университета Индрикис Муйжниекс: по его словам, искусственный интеллект может создавать новый контент, но его автором, получается, является сам искусственный интеллект, а не пользователь.

Исследователи уже констатируют, что искусственный интеллект уже используют для манипулирования общественным мнением в социальных сетях.

Заметили ошибку? Сообщите нам о ней!

Пожалуйста, выделите в тексте соответствующий фрагмент и нажмите Ctrl+Enter.

Пожалуйста, выделите в тексте соответствующий фрагмент и нажмите Сообщить об ошибке.

По теме

Еще видео

Еще

Самое важное