PHP и с чем его едят....

GrAndSE

Тёмный
Модератор
Нет, ты почитай на десяток постов назад, к чему тут этот вопрос обсуждается.
Подозреваю, что неясно выразился, но это пост был по сути в поддержку Del и "намёк" PainKiller на то, что нужно включать вывод всех ошибок и внимательно к ним присматриваться.
 

|APOSTOL|

New Member
Пожалйста можете дать литературу по пхп типа "пхп для чайников" и т.д
З.Ы обезательно для новичков(чайников)
 

akick

letter to god
нужна помощь...
задача состоит в следующем
распарсить html пройтись по "каталогам"(ссылкам) дойти до нужного извлечь и положить к себе в базу. так вот вроде бы все есть, но есть и проблема, для распарсивания я использую библиотеку XML_HTMLSAX3 в составе pear поставляется.. и вызов парсера за один сеанс происходит этак раз (20000) * (10-15 сайтов....) и после каждого вызова парсер ( как мне кажется парсер..., но именно на нем и происходит вылет (по мемори аллокейт) происходит необоснованный прирост к занимаемому пространству
использую unset($objPtr); по идее это побуждает пхп освобождать память от обьектов неимеющих указателей на себя при нужде ( оно по большому щету так и происходит, но когда уже занято памяти 600-700мб, потом резкий скачок до 20-40 мб и снова рост как на дрожжах (за одну итерацию 200-300 кб прирост)) собственно вопрос может кто знает как все таки очистить незамедлительно область памяти или знает методы как выполнять скрипт по кускам ( хотя способ передачи кода в STDIN и забирать результат из STDOUT меня не прильщают изза обьемности и сложности структуры передаваемых данных..)
ЗЫ: если устанавливаю ini_set('memory_limit',-1); то он отрабатывает но при етом колосальные куски памяти отжирает 700+ мб...
 

Dre.hz

Active Member
нужна помощь...
задача состоит в следующем
распарсить html пройтись по "каталогам"(ссылкам) дойти до нужного извлечь и положить к себе в базу. так вот вроде бы все есть, но есть и проблема, для распарсивания я использую библиотеку XML_HTMLSAX3 в составе pear поставляется.. и вызов парсера за один сеанс происходит этак раз (20000) * (10-15 сайтов....) и после каждого вызова парсер ( как мне кажется парсер..., но именно на нем и происходит вылет (по мемори аллокейт) происходит необоснованный прирост к занимаемому пространству
Я в таких случаях свой парсер писал под конкретный сайт, максимально на него заточенный. Без меганавороченного функционала, и как следствие - легкий, быстрый и нетяжелый для сервера.

PS. Если кто чувствует свои силы именно в таком задании (распарсить сайт) - пишите на noty@noty.net, есть много интересной работы.
 

akick

letter to god
Я в таких случаях свой парсер писал под конкретный сайт, максимально на него заточенный. Без меганавороченного функционала, и как следствие - легкий, быстрый и нетяжелый для сервера.

PS. Если кто чувствует свои силы именно в таком задании (распарсить сайт) - пишите на noty@noty.net, есть много интересной работы.
да в том, то и дело, что мне ненужен конкретный сайт..... мне нужна конкретная информация с множества сайтов, а на большинстве из них html битый, и нужно использовать хороший универсальный парсер, который гарантированно все теги увидит и так далее, для галочки работа над новым allboards.com.ua написание червя сборщика.. вот
 
Зверху