Leif Gram: Mr. Fix

Adversarial examples

Знаете, как конструируют специальные вражеские изображения, чтобы ломать классификаторы? Например, у кого-нибудь есть нейронная сеть, которая отличает кошек от собак. Иногда можно взять фотографию кошки, поменять несколько пикселей, так что человек вообще не заметит, а сеть будет уверенно говорить, что это теперь собака.
Вот, а умные люди придумывают, как заставить Теслу врезаться во что-нибудь: https://jalopnik.com/this-test-shows-why-tesla-autopilot-crashes-keep-happen-1826810902
Хорошее загадочное преступление, кстати: ехать перед Теслой, а потом внезапно уйти в правую полосу и освободить ей дорогу. Оказывается, она радостно разгонится и врежется в машину, которая была перед вами. Будут ли за это сажать в тюрьму?
да, с этими глубокими сетями на машинах только вопрос времени, когда телевизор на задней двери грузовика будет приравниваться к запрещенному оружию, а придорожные рекламные стенды запретят вообще.
На лошадей, говорят, шоры надевали, чтобы они не пугались невесть чего.
> телевизор на задней двери грузовика будет приравниваться к запрещенному оружию

otlichno ;)
(Anonymous)

This is the standard behavior of any car with adaptive cruise control -- they don't detect stationary objects when traveling above a certain speed. Deep networks have nothing to do with this. (Also it is mentioned in Tesla's manual).
Они всегда в такой ситуации врезаются в стоящие машины?
Esli voditel' ne nazhmet na tormoz, to vsegda. Eto otnostisya ne tol'ko k Tesle.

If the speed difference is less than some fixed number, then the car will brake, but it will not decrease its speed by more than 25mph (this is for Tesla).

Edited at 2018-06-15 01:57 am (UTC)
Какие у людей удивительные вкусы. У меня машина старая, в ней такого нет.
Такая подстава и на обычных, внутричерепных нейронных сетях неплохо срабатывает (хотя и не так надёжно, как на Автопилоте).