Наталья Гормалева
В российском Совете по правам человека возмутились тем, что голосовые помощники «Алиса» и «Маруся» уклоняются от ответа на некоторые политические вопросы. Глава совета Валерий Фадеев выразил негодование тем, что даже ChatGPT дает более развернутые ответы. В «Яндексе», разработавшем «Алису», указали, что за неправильные ответы виртуального помощника компанию «бы вообще запретили, скорее всего».
На мероприятии «Защита прав и свобод граждан в условиях цифровизации» глава СПЧ Валерий Фадеев затронул тему стремительного внедрения искусственного интеллекта в повседневную жизнь граждан. При этом Фадеев возмутился тем, что разработанные российскими «Яндексом» и VK виртуальные помощники отказываются отвечать на некоторые вопросы, связанные с территориальными границами РФ и действиями российской армии на территории Украины.
Вместе с тем, признался глава СПЧ, даже американский ChatGPT дает на эти вопросы развернутые и всесторонние ответы.
«В чате GPT есть ответы. Я думал, что это будут жесткие пропагандистские ответы, но нет — мнение с одной стороны, с другой стороны, есть дискуссия. Довольно обтекаемо, но ответ есть. А наши новые инструменты почему стесняются давать ответы? Это не вопрос цензуры, это вопрос отношения нации к своей истории, важнейший идеологический вопрос», — приводит слова Фадеева «Коммерсантъ».
В свою очередь, директор по развитию технологий искусственного интеллекта в «Яндексе» Александр Крайнов попытался объяснить Фадееву основы работы нейросети. По его словам, сервис не может выдавать каноничный допустимый ответ, поскольку старается подражать всем текстам, которые видел.
Также в алгоритме есть элемент случайности, чтобы ответы не были всегда идентичными.
«Именно поэтому, если каждый раз задавать один и тот же запрос, результат будет отличаться. В том числе отличие может быть абсолютно радикальным по смыслу», — пояснил Крайнов.
Представитель технологической компании добавил, что ответы нейросети не проходят редактуру. Он указал, что за некоторые ошибки компанию могут привлечь к уголовной ответственности.
Заставь искусственный интеллект самообучаться и совершенствоваться – выбирай онлайн-курсы в каталоге курсов по машинному обучению.
«Уход от ответа — лучшее, что мы можем сделать сейчас, — Потому что, если бы мы отвечали плохо, нас бы вообще запретили, скорее всего», — резюмировал Крайнов.
Тем не менее, в СПЧ не удовлетворились таким пояснением. Член совета Игорь Ашманов отметил, что указанные голосовые помощники позиционируются в том числе как «детский компаньон». Ашманов выдвинул идею о том, что детям бессмысленно предлагать разносторонний взгляд на ту или иную ситуацию, и «у ребенка должен быть один ответ».
«То же самое с историей — нельзя, если ты даже с подростком разговариваешь, давать ему много точек зрения», — сказал Ашманов.
С начала активного развития технологий искусственного интеллекта в России и запуска различных «умных» сервисов на базе ИИ разработчики регулярно сталкиваются с замечаниями и претензиями к генерируемому контенту. Весной прошлого года лидер фракции «Справедливая Россия — За правду» Сергей Миронов пожаловался в Генпрокуратуру на «негативный образ России» в картинках нейросети Kandinsky от «Сбера».
А YandexGPT от «Яндекса» раскритиковал Дмитрий Медведев.
Фото на обложке: atsurkan / Shutterstock
Источник: rb.ru