umh oye si, si algun alma gentil se compadeciera de aquellos que quieren informarse seria genial, a seguir buscando
http://www.freelibros.com/category/hackcrack
# -*- coding: utf-8 -*-import reimport mechanizen = 12 #Número de Páginas de la categoríabase_url = "http://www.freelibros.com/category/hackcrack/" #url baseurl_list = [base_url+'page/'+`i` for i in range(2,n+1)] #Para generar la lista de urlsurl_list.insert(0,base_url) #Insertamos la url base a la listaprint(url_list)#Creamos los archivos que contendrán los links extraidos#download_servers = {'megaupload' : open('megalinks.txt','w'), 'rapidshare' : open('rapidlinks.txt','w'), 'fileserve' : open('fileservelinks.txt','w'), 'mediafire' : open('medialinks.txt','w'), 'filesonic' : open('filesoniclinks.txt','w'), 'prialepaste': open('prialepastelinks.txt','w'), '4share' : open('4sharelinks.txt','w'), 'multiupload': open('multuploadlinks.txt','w'), 'uploading' : open('uploadinglinks.txt','w') }#Creamos nuestro Navegador usando mechanizebrowser = mechanize.Browser()for url in url_list: print(url) #Sólo para ver en que página vamos y no desesperarnos por la espera browser.open(url) #Abrimos el link #Como el texto "Continuar Leyendo »" es el link para entrar #A la página donde contiene el link(s) para descargar #Los extraemos todos de la página actual links = browser.links(text="Continuar Leyendo »") urls = [] download_links = [] for link in links: urls.append(link.url) #En esta parte nos dedicamos a extraer los links de descarga for url in urls: browser.open(url) for link in browser.links(url_regex= '|'.join(download_servers)): #Ya que tenemos en link de descarga tenemos que saber a cual archivo enviarlo exp = '%s'%('|'.join(download_servers)) # expresion regular "megaupload|rapidshare|..." r = re.compile(exp,re.S) f = r.findall(link.url) #extrae del link dado cual es el servidor download_servers[f[0]].write(link.url+'\n') #Como sabemos el servidor, sabremos tambien #A cual archivo mandarlo#Por último cerramos todos los archivos abiertos.for server in download_servers: download_servers[server].close()#Y tachan tenemos todos los links, sin perdida de tiempo
$ python download.py['http://www.freelibros.com/category/hackcrack/', 'http://www.freelibros.com/category/hackcrack/page/2', 'http://www.freelibros.com/category/hackcrack/page/3', 'http://www.freelibros.com/category/hackcrack/page/4', 'http://www.freelibros.com/category/hackcrack/page/5', 'http://www.freelibros.com/category/hackcrack/page/6', 'http://www.freelibros.com/category/hackcrack/page/7', 'http://www.freelibros.com/category/hackcrack/page/8', 'http://www.freelibros.com/category/hackcrack/page/9', 'http://www.freelibros.com/category/hackcrack/page/10', 'http://www.freelibros.com/category/hackcrack/page/11', 'http://www.freelibros.com/category/hackcrack/page/12']http://www.freelibros.com/category/hackcrack/http://www.freelibros.com/category/hackcrack/page/2http://www.freelibros.com/category/hackcrack/page/3http://www.freelibros.com/category/hackcrack/page/4http://www.freelibros.com/category/hackcrack/page/5http://www.freelibros.com/category/hackcrack/page/6http://www.freelibros.com/category/hackcrack/page/7http://www.freelibros.com/category/hackcrack/page/8http://www.freelibros.com/category/hackcrack/page/9http://www.freelibros.com/category/hackcrack/page/10http://www.freelibros.com/category/hackcrack/page/11http://www.freelibros.com/category/hackcrack/page/12$ ls4sharelinks.txt download.py medialinks.txt prialepastelinks.txtbak fileservelinks.txt megalinks.txt rapidlinks.txtdescargas filesoniclinks.txt multuploadlinks.txt uploadinglinks.txt
$ cat megalinks.txthttp://www.megaupload.com/?d=XXXXXXXXhttp://www.megaupload.com/?d=XXXXXXXXhttp://www.megaupload.com/?d=XXXXXXXXhttp://www.megaupload.com/?d=XXXXXXXX...$ cat megalinks.txt | wc -l69