Колишній керівник автономних систем Uber потрапив в аварію на Tesla з FSD
Іронія долі полягає в тому, що людина, яка керувала розробкою автономних водіїв в Uber, потрапила в аварію на власному автомобілі Tesla з активованою системою повного автопілоту (FSD). Це сталося з Раффі Крікоряном, і цей випадок висвітлює набагато глибшу проблему, ніж просто одна дорожньо-транспортна пригода.
Ця історія підкреслює незручну перехідну фазу сучасних напівавтономних технологій. Вони здатні виконувати більшість завдань з керування автомобілем, але все одно вимагають від людини миттєвого втручання в разі несправності. Подібні випадки показують, наскільки хиткою може бути така рівновага між машиною та водієм.
Деталі події
Як пише Крікорян в своєму есе для The Atlantic, він їхав з дітьми житловими кварталами з активованим FSD. Після місяців безпроблемного використання системи поза трасами він почувався впевнено. Раптом автомобіль почав поворот, кермо несподівано різко дернулося, і всього за кілька секунд Model X врізався в бетонну стіну.
Ніхто не постраждав, але пережитий шок змусив його замислитися. Його вразила не стільки сама аварія, скільки знайома модель розподілу відповідальності. Він описує явище, яке дослідниця Мадлен Клер Ейліш називає “моральною зоною деформації”. Ця концепція пояснює, що коли складні автоматизовані системи дають збій, людина-оператор приймає на себе весь відповідальність, подібно до того, як зона деформації поглинає енергію удару. Навіть якщо система виконує основну роботу, юридична відповідальність все одно лежить на водії.
My Tesla tried to drive me into a lake today! FSD version 14.2.2.4 (2025.45.9.1)@Tesla @aelluswamy pic.twitter.com/ykWZFjUm8k — Daniel Milligan (@lilmill2000) February 16, 2026
Питання відповідальності та психології
Tesla не раз вигравала судові процеси, спираючись саме на цей принцип. Виробник неодноразово попереджає, що системи допомоги водієві не ідеальні, і водій повинен бути готовий миттєво взяти керування на себе. Однак найцікавіший аспект есе — не юридичний, а психологічний та фізіологічний.
З психологічної точки зору, напівавтономні системи створюють небезпечну “сіру зону”. Вони працюють настільки добре, що водії перестають активно керувати автомобілем, але недостатньо добре, щоб повністю усунути потребу в людині. Дослідження говорять про “зниження пильності”: коли люди стежать за системою, яка майже ніколи не ламається, їхня увага розсіюється.
Коли увага розсіюється, вступає в дію фізіологічний фактор. Навіть найбільш підготовленій людині часто потрібні секунди, щоб знову сфокусуватися, прийняти рішення та вдіяти. Ця закономірність проявляється скрізь, де люди контролюють автоматизацію — від літаків до чат-ботів зі штучним інтелектом.
Технологія формує довіру, стабільно працюючи в більшості ситуацій, а потім покладається на людину, яка має врятувати ситуацію в разі непередбачуваної несправності. І коли це рятування не вдається, відповідальність зазвичай несе людина.

Неминучість проблеми та майбутнє
Найскладніше в цій ситуації те, що така проміжна стадія, ймовірно, неминуча. Технології потрібно випробовувати в реальному світі, щоб вони вдосконалювалися. Це означає співіснування з системами, які можуть виконувати більшість завдань, але все ще потребують водія, готового миттєво втрутитися.
Проблема в тому, що чим краще працюють ці системи, тим легше забути, що саме ви несете остаточну відповідальність. Це триває аж до моменту, коли протокол про ДТП нагадує про це у всій суворій реальності.
Цей випадок розкриває фундаментальний парадокс сучасного етапу розвитку автопілоту. Суспільство та законодавці стикаються з викликом, коли технічні можливості випереджають здатність людини ефективно взаємодіяти з ними на психофізіологічному рівні. Питання полягає не лише в тому, хто винний в конкретній аварії, а в тому, як перепроектувати саму концепцію спільної роботи людини та машини, щоб мінімізувати цей небезпечний розрив між довірою та реальною здатністю до контролю. Майбутнє автономного транспорту залежатиме від знаходження відповіді на це питання.

by