Правозащитная группа Noyb оказывает поддержку жителю Норвегии, который был шокирован, обнаружив, что ChatGPT выдаёт выдуманную информацию. Утверждающую, будто он был осуждён за убийство двоих своих детей и покушение на убийство третьего.
«GDPR чётко говорит. Персональные данные должны быть точными», — заявил Йоаким Сёдерберг, юрист по защите данных из Noyb, в своём заявлении. «Если это не так, пользователи имеют право на их изменение, чтобы отразить правду. Показывать пользователям ChatGPT крошечное предупреждение о том, что чатбот может ошибаться, явно недостаточно. Нельзя просто распространять ложную информацию, а в конце добавлять маленькую оговорку, что всё сказанное может быть неправдой».
Предыдущие жалобы на конфиденциальность в отношении ChatGPT, генерирующего некорректные персональные данные, касались таких проблем, как неверная дата рождения или ошибочные биографические детали. Одна из проблем заключается в том, что OpenAI не предлагает людям способа исправить неверную информацию, которую генерирует ИИ о них. Обычно OpenAI предлагала блокировать ответы на такие запросы. Однако в соответствии с Общим регламентом по защите данных Европейского Союза (GDPR), европейцы имеют целый набор прав доступа к данным, включая право на исправление персональных данных.
Ещё один компонент этого закона о защите данных требует от контролёров данных обеспечивать точность персональных данных, которые они производят о людях — и именно на эту проблему указывает Noyb в своей последней жалобе на ChatGPT.
Подтверждённые нарушения GDPR могут привести к штрафам в размере до 4% от годового глобального оборота.
Правоприменение также может вынудить компании внести изменения в продукты на базе ИИ. Стоит отметить, что раннее вмешательство итальянского органа по защите данных на основании GDPR, которое привело к временной блокировке доступа к ChatGPT в стране весной 2023 года, заставило OpenAI внести изменения в информацию, которую она раскрывает пользователям. Впоследствии надзорный орган оштрафовал OpenAI на 15 миллионов евро за обработку данных людей без надлежащего правового основания.
С тех пор, однако, справедливо сказать, что органы по защите конфиденциальности по всей Европе приняли более осторожный подход к генеративному ИИ, пытаясь выяснить, как лучше применять GDPR к этим популярным инструментам ИИ.