Нейросети уже плотно вошли в нашу жизнь. По данным компании OpenAI, к одному лишь ChatGPT, который является одной из самых известных и мощных языковых моделей, ежемесячно обращается около 100 млн пользователей. Сервис обогнал даже TikTok по популярности. Однако из-за бурного развития технологий многие забывают об этическом аспекте использования прикладного искусственного интеллекта. «Открытый Нижний» решил разобраться, где применяются нейросети и каким образом регулируется их использование.
ИИ в повседневной жизни
Нейросети в повседневной жизни способны упростить повседневные задачи: планирование, поиск информации, управление умными устройствами и даже улучшение личной продуктивности. В некоторых случаях ему можно даже доверить самостоятельные решения. При этом сложно отрицать, что нейросети несут в себе и опасность: они собирают личные данные, которые могут быть скомпрометированы в любой момент.
Напомним, сотрудникам администрации Нижнего Новгорода вовсе запретили использовать ChatGPT и другие нейросети на работе еще в прошлом году. Представители мэрии тогда сослались на рекомендации Федеральной службы по техническому и экспортному контролю. Они касаются предотвращения реализации угроз безопасности информации.
Важно отметить, что эти опасения не безосновательны. В январе 2024 года пользователи ChatGPT заметили, что нейросеть в диалоге выдает логины, пароли и другие конфиденциальные данные пользователей. Поэтому стоит воздержаться от загрузки чувствительной информации при общении с ботом. Однако не до конца понятно, кто несет ответственность, если такие данные попали общественный доступ при условии, что пользователь поделился им в личной переписке с нейросетью.
Нейросети на службе мошенников
Не стоит забывать, что технологии прикладного искусственного интеллекта не обошли внимание злоумышленников. Дипфейки видео и голосов уже активно используются мошенниками, которые выдают себя за родственников жертв, за счет чего выманивают у них деньги. При этом инструменты для подделки изображений и аудио буквально находятся в отрытом доступе, нет никаких принципиальных ограничений для их использования.
Более того, дипфейки уже использовались для дезинформации людей: 13 сентября губернатор Белгородской области Вячеслав Гладков в своем телеграм-канале предупредил о распространении в интернете дипфейков с участием представителей региональных властей, в том числе с ним самим (о сервисах для распознания различных дипфейков рассказывается в статье «Открытого Нижнего». - Прим. ред.).
На сегодняшний день в России нет отдельного наказания за преступления с использованием дипфейков, однако в Госдуму уже внесен законопроект, который будет учитывать такие моменты. В случае его принятия за клевету и мошенничество с использованием дипфейков будет грозить больше, чем за аналогичные преступления без их применения.
Нейросети в образовании
Также нельзя не упомянуть аспект образования. Ранее «Открытый Нижний» уже выяснил, что в преподавательском сообществе нет единого мнения касательно того, стоит ли разрешать студентам использовать нейросети для написание научных работ. Вместе с тем они более лояльно относятся, если тот же ChatGPT будет помогать им подготавливаться к занятиям. Несмотря на то, что ИИ может быть хорошим репетитором, полноценного учителя он вряд ли заменит.
Использование нейросетей открывает много возможностей, но требует ответственного подхода. Важно учитывать не только пользу, которую они могут принести, но и возможные риски: от нарушения конфиденциальности до подрыва доверия к информации. Этика в использовании таких технологий должна быть на первом месте, чтобы нейросети служили во благо, не причиняя вреда людям и обществу.
Изображения сгенерированы нейросетью по запросу «Открытого Нижнего»
Наша группа ВКонтакте: последние новости, конкурсы, живое общение. Подписывайтесь!