любая команда /wget с параметрами?
Для многопоточной загрузки сайта рекурсивно и одновременно?
любая команда /wget с параметрами?
Для многопоточной загрузки сайта рекурсивно и одновременно?
Я нашел достойное решение.
Прочитайте оригинал на http://www.linuxquestions.org/questions/linux-networking-3/wget-multi-threaded-downloading-457375/
wget -r -np -N [url] & wget -r -np -N [url] & wget -r -np -N [url] & wget -r -np -N [url] &
скопировано столько раз, сколько вы считаете нужным, чтобы загрузить столько процессов. Это не так элегантно, как правильно многопоточное приложение, но оно выполнит работу с небольшими затратами. ключом здесь является переключатель «-N». Это означает, что файл следует передавать только в том случае, если он новее того, что находится на диске. Это (в основном) предотвратит загрузку каждым процессом одного и того же файла, уже загруженного другим процессом, но пропустит файл и загрузит то, что не загрузил какой-либо другой процесс. В качестве средства для этого используется отметка времени, отсюда и небольшие накладные расходы.
Это отлично работает для меня и экономит много времени. Не создавайте слишком много процессов, так как это может перегрузить соединение веб-сайта и поставить галочку на владельце. Держите его около максимума 4 или около того. Однако это число ограничено только пропускной способностью процессора и сети на обоих концах.
При использовании параллельного wget с переключателем xargs это решение выглядит намного лучше:
https://stackoverflow.com/a/11850469/1647809
Используйте axel
для загрузки с несколькими соединениями
apt-get install axel
axel http://example.com/file.zip
Ну, вы всегда можете запустить несколько экземпляров wget
, не так ли?
Пример:
wget -r http://somesite.example.org/ &
wget -r http://othersite.example.net/ &
и т. д. Этот синтаксис будет работать в любой Unix-подобной среде (например, Linux или MacOS); не уверен, как это сделать в Windows.
Сам Wget не поддерживает многопоточные операции — по крайней мере, ни справочная страница, ни на его веб-сайте есть какие-либо упоминания об этом. В любом случае, поскольку wget поддерживает HTTP keepalive, узким местом обычно является пропускная способность соединения, а не количество одновременных загрузок.
wget
является однопоточным. Прости. 20.01.2011
wget -m
для простоты и запускаю сразу несколько 27.11.2018