Leif Gram: Mr. Fix

Кстати

Если тесловский искусственный интеллект учится у водителей пока они ездят, то почему он вообще будет сколько-нибудь лучше водить? Он научится точно так же не включать поворотники, ездить на десять миль в час быстрее ограничения скорости, ускоряться на желтый свет, объезжать поворачивающие налево машины по обочине и т.д. Кроме того, у водителей нет камер с обзором в 360 градусов, поэтому вообще невозможно научиться у этих водителей использовать такие камеры с пользой для дела.
Допущение о том, что ученик всегда хуже своего учителя очевидно не верно, это опровергнуто всей историей человечества.
У тех водителей, которые разбились - не учится.
Как это? Когда человек попадает в аварию, его вклад исключают из модели? Он там содержится не аггрегированно, а атрибутированно конкретному человеку?
Зачем такие сложности? Задержку с обработкой данных всунуть достаточно, и убивать данные за день, если, скажем, разбился, тикет получил, выбрал очень плохой маршрут, etc.
Возможно, ИИ не станет учиться засыпать за рулем на однообразной дороге, отвлекаться на разговоры в салоне или не имеющие отношения к вождению события за окном.
Почему же не станет? Если люди систематически засыпают на скучных дорогах и перестают крутить руль, качественный ИИ должен научиться понятию скучности дороги и тоже отключаться, пока дорога не станет снова интересной.
Совершенно неважно, что есть и чего нет у водителя (вместо обзорных камер есть зеркала заднего вида). Задача ИИ - находить корреляции ситуаций вокруг машины по данным камер и прочих сенсоров-радаров и поведения водителя.
По-моему, эти корреляции заведомо spurious. То, чего водитель не видит, не может влиять на его поведение.
Пока мы видим среди нашумевших аварий с автопилотом четко выраженные проблемы с программным распознаванием того, что видит камера - попытка заехать под фургон или наехать на бетонный блок сбоку полосы движения - это то, что учебой не берется, надо такие вещи устранять улучшением железа и алгоритмов распознавания. А есть вещи, которые действительно обучаются, типа поведения машины на мокром асфальте в повороте или при торможении. Или уточнение поведения при перестроении, скажем стоит ли перестраиваться в течении первой секунды, как подал знак поворота, или стоит подождать еще 3-4 секунды?
Поведение, типа поехать на красный вообще не свойственно и не подлежит переопределению никаким примером от живого водителя.
Меня например, больше интересует ситуация , когда ИИ должен будет живенько принимать решение дать погибнуть сидящим в машине или тем кто снаружи. Собственно основные пляски и должны происходить именно в направлении разъяснения этого вопроса.
В основе может быть мощный праксеологический инсайт.
Типа "если ездить по правилам, то вообще никогда не доедешь". А у этих разгильдяев как-то получается. Надо копировать их поведение. Потому что другого результативного - нет.
Ты совершенно неправильно понимаешь работу по обучению ИИ. Он не пытается копировать то, с чего он учится. Он смотрит и запоминает, какие действия приводят к каким результатам. Помнишь, у Гарднера была самообучающаяся машина на спичечных коробках для игры в крестики-нолики? Для того, чтобы её научить беспроигрышно играть в эту игру, не обязательно было уметь играть в неё самому. Там обучение шло вообще на случайном выборе хода с отсечением тех ходов, которые приводили к проигрышу.
Это ответ и на твой первый вопрос (почему ИИ будет лучше ездить), и на второй (он не будет копировать бессмысленные действия - мы уже говорили о пропуске красивых женщин, когда этого не требуют ПДД), и на третий (зачем ИИ органы чувств, которых нет у реальных водителей).
Ну вот линейная регрессия копирует бессмысленную прямую линию, или смотрит и запоминает, какие значения x приводят к каким значениям y? Для меня это слишком глубокий вопрос, но с нейронной сетью то же самое, разве что поверхность сложнее устроена.
как будто что-то плохое.
а поворотники многие включают