Оглавление
ToggleChatGPT и защита данных в сфере ИИ
В последние месяцы много говорилось об искусственном интеллекте (ИИ) с точки зрения закона, и на этот счёт появилось много разных мнений. С одной стороны, есть те, кто придерживается позиции, что ИИ может быть основным инструментом труда, экономического и социального развития не только в мире права, но и во многих профессиональных сферах; с другой стороны, существуют негативные мнения на этот счет, которые утверждают, что ИИ может стать в определенных случаях неэтичным, не уважающим нормы и недемократичным, поскольку имеет интеллектуальную и компьютеризированную систему, а не эмоциональную или оценочную; третья группа поддерживает идею о том, что ИИ может принести большие благоприятные изменения, если такие аспекты, как признание его правосубъектности, режима ответственности и т. д., будут специально регулироваться.
Это изобилие мнений ясно отразилось в последних спорах об ИИ в набравшем большую популярность ChatGPT.
Для тех, кто не знает, GPT-чат — это языковая модель, использующая технологии искусственного интеллекта, обучающаяся на большом количестве текстовых данных, таким образом, что она автоматически формирует ответы и повышает точность систем поиска информации. В этом смысле он генерирует тексты, изображения, аудио и видео точно так же или очень похоже на то, как это сделал бы человек. Оно работает как приложение, которое люди скачивают, и в зависимости от того, бесплатно оно (пользователь) или нет (подписчик), оно будет иметь те или иные преимущества. В приложении появляется своего рода чат, в котором пользователь или подписчик может задать любой вопрос, например: «Покажите мне модель договора о доверительной собственности», после чего автоматически появится шаблон указанного договора. Или вы могли бы спросить: какие уголовные дела в США были самыми спорными в 2011 году? На что приложение собирает ряд данных и отвечает на вопрос.
Хотя ChatGPT может показаться одним из величайших изобретений в истории, у него есть и недостатки. Во-первых, это тип ИИ, который не гарантирует достоверность информации, так как может содержать ошибочные данные, так как при обучении на неадекватных данных может генерировать недостоверный контент. С другой стороны, несколько профессий отвергли деятельность Chat GPT как трудовое вторжение, считая, что, если этот чат может так легко справляться с написанием текстов и практически без каких-либо затрат, работа некоторых профессионалов, подразумевающая значительный подготовительный период, теряет смысл.
Еще один из самых больших страхов на международном уровне, вызванный ChatGPT, в отношении которого уже принимаются соответствующие меры, является нарушение неприкосновенности частной жизни, общественной безопасности и личных данных. Ярким примером является Италия. 13 апреля Национальное агентство кибербезопасности Андорры (Agencia Nacional de Ciberseguridad de Andorra) опубликовало статью о том, что Италия решила «заблокировать» чат GPT, поскольку он не соблюдает предпосылки и дисциплину конфиденциальности данных, так как работает, собирая миллионы данных, чтобы дать автоматический ответ, запрашиваемый пользователями и собирает миллионы данных от тех пользователей и подписчиков, которые используют этот инструмент.
Точно так же в США Центр искусственного интеллекта и цифровой политики (CAIDP) счел ChatGPT «предвзятым, вводящим в заблуждение и представляющим угрозу для конфиденциальности и общественной безопасности», считая, что он не соответствует гарантиям эмпирической достоверности данных, и при этом он не имеет достаточных гарантий, чтобы ограничить предвзятость и обман.
В случае Испании Агентство по защите данных (Agencia de Protección de Datos) также проводит расследования в этом отношении, чтобы определить влияние ChatGPT на данные пользователей и подписчиков и их основные права. Следовательно, было решено создать комитет Целевой группы, который будет отвечать за надзор и контроль для последующего внедрения системы сотрудничества и обмена информацией с властями в тех случаях, когда данные или безопасность затрагиваются каким-либо вредоносным способ, чтобы принять меры по этому поводу.
В ближайшие месяцы мы сможем увидеть, как развивается спор, принимая во внимание, что несколько стран обратились к Европейскому комитету по защите данных с просьбой рассмотреть данный вопрос на своем пленарном заседании из-за важности, которую он подразумевает не только для конфиденциальности и безопасности пользователей, но и для будущего развития ИИ, который будет постепенно развиваться и внедряться в нашу повседневную жизнь, поэтому его необходимо будет регулировать во всех аспектах, в которых он может применяться.
The Management