Полиция использовала ИИ для составления протоколов, и он утверждал, что офицер превратился в жабу. Это вызывает беспокойство

Неожиданная ошибка искусственного интеллекта

Остановки автоинспекцией редко когда приносят удовольствие, но появилась новая проблема, которая звучит так же нереально, как и полицейский-жаба на главном изображении. В декабре полиции города Хебер-Сити в Юте пришлось объяснять, почему отчет, созданный искусственным интеллектом, утверждал, что офицер буквально превратился в жабу. Виновником оказался не злой интерн или офицер-самоуправщик, а галлюцинации искусственного интеллекта.

Программное обеспечение нательных камер и программное обеспечение для создания отчетов на основе ИИ уловило фильм, который играл на заднем плане, а им оказалась «Принцесса и жаба». Вот тогда мы поняли важность исправления этих отчетов, сгенерированных искусственным интеллектом.

Отдел тестировал программное обеспечение для написания отчетов на основе ИИ, которое прослушивает запись с нательных камер и автоматически составляет полицейские отчеты. К сожалению, система уловила аудио из мультфильма «Принцесса и жаба», игравшего на заднем плане, и уверенно внесла это в официальный протокол.

Когда программное обеспечение пишет историю

Это, несомненно, смешно, но также и вызывает беспокойство. По словам журналистов, эти инструменты ИИ разработаны для экономии времени офицеров путем преобразования аудио с нательных камер в письменные отчеты. Теоретически это означает меньше бумажной работы и больше времени на патрулирование.

На практике это также означает, что алгоритм теперь интерпретирует разговоры, тон и фоновые шумы во время дорожных встреч, включая остановки транспорта, которые могут иметь долгосрочные последствия для водителей.

Полиция использовала ИИ для отчетов, и он сказал, что полицейский превратился в лягушку. Это проблема

Долгосрочные последствия ошибок

Легко воспринимать остановку как короткое взаимодействие, но записи об этих остановках могут быть постоянными. Такой отчет может влиять на будущие остановки, судебные процессы, страховые случаи, лишение водительских прав и даже проверки при приеме на работу.

Другими словами, когда ИИ что-то путает, это не просто опечатка или забавный случай. Это дезинформация, вписанная в официальный документ.

«Почти правильно» – недостаточно хорошо

В случае с Хебер-Сити ошибка была настолько очевидной, что над ней можно было посмеяться. Но что станетcя, когда ИИ неправильно поймет, кто что сказал, ошибочно интерпретирует тон водителя или неправильно подытожит причины эскалации конфликта? Такие ошибки гораздо проблематичнее.

Они могут быть не только сложнее для обнаружения, но и встает вопрос: будет ли каждый офицер исправлять формулировки, которые являются схожими, но, возможно, более резкими, чем нужно, если они «почти правильные»?

Полиция использовала ИИ для отчетов, и он сказал, что полицейский превратился в лягушку. Это проблема

Защита для водителей

Пока что кажется, что лучшим шагом для обычных водителей является начать использовать видеорегистратор и другие устройства записи, чтобы обеспечить наличие независимой записи, с которой ИИ не сможет вмешаться.

Запрос записей с нательных камер и отчетов через закон о свободе информации также может оказаться жизненно важным. Жаба в отчете – это забавно, но ваш постоянный профиль в правоохранительных органах – это не игра.

Этот инцидент ярко иллюстрирует более широкую проблему интеграции технологий в критически важные сферы, где точность является абсолютным приоритетом. Внедрение ИИ для автоматизации должно сопровождаться надежными механизмами проверки и контроля человека, особенно когда речь идет о юридических документах, влияющих на жизни людей. История с жабой стала своеобразным предупреждением о том, что технологии, призванные облегчать работу, могут создавать новые, непредсказуемые риски, если их применять без должного понимания их ограничений и контекста.

Добавить комментарий