Leif Gram: Mr. Fix

Вниманию пользователя akor168

Along America's west coast, the world's most valuable companies are racing to make artificial intelligence smarter. Google and Facebook have boasted of experiments using billions of photos and thousands of high-powered processors. But late last year, a project in eastern Tennessee quietly exceeded the scale of any corporate AI lab. It was run by the US government. "Deep learning has never been scaled to such levels of performance before," says Prabhat, who leads a research group at the National Energy Research Scientific Computing Center at Lawrence Berkeley National Lab. His group collaborated with researchers at Summit's home base, Oak Ridge National Lab. Fittingly, the world's most powerful computer's AI workout was focused on one of the world's largest problems: climate change.

И это еще неплохое применение, раньше National Energy Research Scientific Computing Center смоделировал бы какую-нибудь очередную водородную бомбу.
Есть серьезное ощущение что хайпа перегрузили и в эту итерацию. Два-три года назад восторженные поклонники писали, что АИ появится уже вот к этому времени. Да, решили кое-какие задачи, да кое-где добились сверхчеловеческого уровня. Но тот же отвратный поиск гугла на основе новых алгоритмов наглядно показывает, что сам горшочек таки варить не будет. То есть копать есть куда, но АИ к завтрему я думаю отменяется, не говоря уже про всякий бред про технологические сингулярности.
Меня больше поразило, что государство проëбывает искусственного интеллекта на климатологию документированно больше, чем фейсбук на котиков.
Я высказывал пару лет в своем ЖЖ недоумение, что государство вполне могло сделать распознавание "котиков" (а попутно и всякие там машины без водителя) еще 15-20 лет назад. Но пришлось ждать, когда технические мощности, нужные для этого, установят на столы обыкновенных пользователей. А они считали то ли бомбу, то ли шифры иностранных разведок, то ли еще что...
There is no AI there, they are just running some neural net on a supercomputer. Whatever you think about climate modelling, as you noticed yourself, it is far preferable to using the same hardware to build hydrogen bombs.
Nowadays, when they say "AI" half of the time it means that they run some neural net on same data.
So 10 or 30 years ago they were using some PDE solver to model this or that, now they are using stochastic gradient descent with a neural net for the same purpose. I don't see any significant changes.
В нейронной сети нет фундаментальной модели или поддающихся интерпретации компонентов. Уравнение в частных производных само по себе является его моделью, градиентный спуск как метод его решения имеет какие-то проверяемые свойства, напрмер, гарантированную точность.

In these applications they often use neural nets in conjunction with a model. It is true that it is typically less tractable analytically though.
Поэтому я не вижу особой разницы. Ответ берется примерно ниоткуда с помощью нейронной сети, так рабитает искусственный интеллект.

Difference between what and what? Linear regression is not necessarily easy to understand either although it is more tractable.
Разница между искусственным интеллектом и каким-то другим применением нейронной сети, на которой вы настаиваете.
Коэффициенты регрессии допускают самую непосредственную интерпретацию в терминах предметной области -- как вклады соответствующих переменных при неизменных остальных. Первейший sanity check факторной модели - это имеют ли они смысл. В противоположность этому, веса нейронной сети специалисту в предметной области не скажут ничего.

Well, this is true for some application but in many areas linear models are used with features which have little intrinsic meaning. An what about non-parametric methods? What about random forests or boosting? Neural networks are hard to interpret but so are many other classical methods. The difference is that neural netoworks are hard to analyze mathematically.