- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Удалять можно по одному файлу, не спеша.
Можно. расскажите, как получить имя первого файла в папке. :)
dkameleon добавил 19.10.2011 в 21:44
как я понимаю, память жрется потому что создается список всех файлов в памяти.
попробуйте поставить фильтр, чтобы ограничить кол-во файлов на удаление, напр. сначала удалить все, что начинается на 'a', потом на 'b' и т.д., или что-то подобное, в зависимости от структуры названий ваших файлов.
скорее всего, при вашем кол-ве файлов, придется фильтровать не по одному символу, а по два, т.е. 'aa', потом 'ab' и т.д.
попробуйте ручками, если память не будет пожираться, значит скрипт писать надо.
пробовал:
итог тот же.
ещё больше дробить.... ну, даже не знаю...
А так память ест?
ls -f /tmp1 | head -n 20
Попробуйте так:
Не уверен что есть разница, но попытка не пытка :)
А так память ест?
ls -f /tmp1 | head -n 20
думаю тоже самое будет, еще на стадии ls .... будет весь список, то что потом от него 20 рубанет ... это прикольно но от списка... :) правду сказать он будет с каждым выполнением меньше .... это интересная прогрессия :D
find /tmp/ -type f -exec rm -f {} \;
удаляли мне и больше чем пол гига, просто rm fr, точно не помню, без всяких опций, все шустренько удалилось
ТС, а у вас /tmp это просто "папка" в общем разделе "/" или отдельная партиция? может форматнуть ?:)
Еще можно удалять самим find'ом, без rm:
ТС, а у вас /tmp это просто "папка" в общем разделе "/" или отдельная партиция? может форматнуть ?
вообще это папка на общем разделе, при чем созданная испменеджером для юзера в юзердиректории.
пробовал:
итог тот же.
ещё больше дробить.... ну, даже не знаю...
черт, правильно, ему же прошерсить надо весь список файлов.
ну вот здесь чел пишет как он удалил порядка 100-150 млн файлов
http://blogs.perl.org/users/randal_l_schwartz/2011/03/perl-to-the-rescue-case-study-of-deleting-a-large-directory.html
причем там написано почему ни ls, ни rm, ни find ему не помогли - они все строят список файлов сначала, что и пожирает всю память.
PS прикинуть размер списка файлов (т.е. сколько памяти потребуется) можно так ls -dl
ls -f (или -U) должна выдавать список без сортировки.