本次结果:总共分析了2000个网址。 其中, 读取网址2000个,忽略0个 总共读取了1915篇文章。其中,入库10篇,丢弃1905篇 总耗时 29分5秒 平均采集每篇文章耗时0.91秒
丢弃的1905篇 被爬虫采集应该是采集过,我想把之前爬的文章也采集我的网站 怎么设置呢(重复采集勾选过了)
sdbt0258 我想把之前爬的文章也采集我的网站
这句话没弄懂。
网页版的这个,设计得不怎么好,我建议你使用桌面版。
我用别人的规则采集别人采集过的文章 这个时候采集显示文章已存在 但我搜索同个链接 这篇文章明明没有在我的网站发布过 我用的是DXC采集 FOR Discuz! X3.2 的 难道是免费版的原因?
sdbt0258 建议用桌面版,有问题再说吧。下载地址在网站首页