Под следствие попал судья, приговоры которому писал ChatGPT
В Бразилии началось расследование по делу судьи, принявшего решение на основании выдуманной искусственным интеллектом судебной практики. ChatGPT дает такие развернутые рекомендации и так уверенно, что ему верят опытные судьи и адвокаты.
Судья под следствием
В Бразилии Национальный Совет Юстиции (CNJ) начал расследование по делу федеральный судьи, который использовал искусственный интеллект и принял решения на основании ложной судебной практики, пишет бразильский новостной портал G1.
Судья Джефферсон Феррейра Родригес (Jefferson Ferreira Rodrigues) сформулировал с помощью ChatGPT судебное постановление, содержащее ложную информацию, и прислал его в CNJ.
Решение о начале расследования принял национальный инспектор юстиции, министр Луис Фелипе Саломао (Luís Felipe Salomão). Он решил исследовать прецедент.
CNJ столкнулся с первым случаем использования ИИ при формулировании приговоров и оказался вынужден задуматься о регулировании использования таких технологий в судебной системе.
Хотел как лучше
Родригес опубликовал постановление, содержащее целые выдержки, сформулированные с помощью приложения искусственного интеллекта ChatGPT Использованные ИИ выдержки оказались ложными, в них приводились несуществующие и невероятные сведения.
В частности, ChatGPT ссылался на резолюции Верховного суда, которых просто не существует. Эти резолюции он использовал в качестве основы для решения, вынесенного в постановлении.
ChatGPT подводит юстицию
ChatGPT – чат-бот с искусственным интеллектом на базе языковой модели GPT. Он работает с ноября 2022 г. и принадлежит американской компании OpenAI, в которую инвестирует корпорация Microsoft.
В мае 2023 г. CNews писал о еще одной его жертве в сфере юстиции. Американский юрист Стивен Шварц (Steven Schwartz) использовал ChatGPT для подготовки документов по иску. Это обернулась для адвоката катастрофой — разработка OpenAI снабжала его недостоверной информацией, о чем опытный юрист даже не догадывался. Тщательно перепроверять полученные от бота данные он не стал, а сразу же внес ее в документы, которые затем были переданы в суд.
Одной из главных причин, по которой пользователи доверяют ответам ChatGPT, является их развернутость, считают ученые Университета Пердью (штат Индиана, США), авторы специального исследования.
Позитивный эмоциональный окрас генерируемого ботом текста и его вежливость — два других, не менее важных фактора, оказывающих влияние на выбор пользователя.
Наконец, та уверенность, с которой ChatGPT преподносит информацию, порой неверную, вызывает у пользователей доверие и в результате склоняет к выбору неправильного ответа.