Там высмеивается одно решение видеонаблюдения:
Linux утилитка wget подключалась к удаленной камере и запрашивала один единственный JPEG, который записывался в файл. Далее вызывалась другая утилита с именем только что записанного и предыдущего JPEGа и, судя по всему, сообщала было ли движение в кадре или нет. Если движение было, то информация об этом записывалась в базу MySQL еще одним вызовом. А затем все повторялось снова и снова. Как говорится, все гениальное — просто! И неважно, что уже 30 камер вешали файловую систему и процессор достаточно мощного сервера почти намертво.
Ведь (если я правильно понимаю) потери идут на вызовах скриптов, но они должны бить минимальны. Особенно если сравнивать с общим временем выполнения (скачка файла, проверка движения и т.п.).
Но так ли уж плох подобный подход?
Или это просто повод поглумиться и попиариться? (особенно учитывая, что они не говорят как у них это решено)
Как вообще правильно строить подобные системы?