Vous n'êtes pas identifié(e).
Si mais tu es limité, probablement la "pénurie" d'ipv4, après tout dépend du volume de scrap aussi, évidemment
🔴 Hors ligne
Bon je pense que mon article suivant peut vous intéresser car il est dans la mouvance du moment: NodeJs et Proxy Privé.
Hésitez pas à me faire vos retours.
🔴 Hors ligne
J'ai fais mes courses avant la pénurie, alors j'ai un peu de volume, mais effectivité chez ovh, tu payes 2€ de setup et c'est tout, mais ca change tout le temps, a un moment, c'etait 1 ou 2€ / mois, j'ai souffert, mais finalement, bien fait de les garder
Ensuite via lowenbox.com tu trouves des vps pas cher, par exemple chez http://www.gbservers.co.uk/cheap-xenpv-vps/ pour £4.3 tu as un VPS avec 5 IPs
__
Powering Nikozen
🔴 Hors ligne
Bon je pense que mon article suivant peut vous intéresser car il est dans la mouvance du moment: NodeJs et Proxy Privé.
Hésitez pas à me faire vos retours.
T'as écris le billet aujourd'hui pour placer ton bl le même jour c'est ça ?
Il est très bien ton billet
🔴 Hors ligne
J ai dev ça y a un moment mais en lisant effi qui shared certaines sources je me suis dit pourquoi ne pas shared aussi. Du coup un coup de gît un coup de nom et un petit article pour la communauté. Si le lien gêne je peux le virer dites moi.
🔴 Hors ligne
J ai dev ça y a un moment mais en lisant effi qui shared certaines sources je me suis dit pourquoi ne pas shared aussi. Du coup un coup de gît un coup de nom et un petit article pour la communauté. Si le lien gêne je peux le virer dites moi.
Non tu as placé le lien où il fallait quand il fallait. C'est intéressant.
🔴 Hors ligne
Très sympa ton article, je m'amusais à faire du squid mais là c'est vachement plus simple !
J'ai posté un commentaire mais je suis pas sur qu'il soit passé, dans request ta une option localAddress qui te permets d'utiliser les failovers. Un serveur peut donc te servir pour plusieurs ips
CeKwa ?
🔴 Hors ligne
Pour ma part j'utilise VPtunnel c'est pas trop mal après pour scraper Google j'ai aussi des soucis parfois.
Perso @effi10 si tu veux scrapper 5000KW sans proxy ou consort tu mets plus d'une journée car tu tombes même si tu mets du delay entre chaque KW ^^
Déjà test au début je faisais sans rien avec pas mal de mots ben je conseille pas
°¨¨°³º¤£ [ COOLBYTES ] £¤º³°¨¨° - Skype: cb_nalex_levrai
🔴 Hors ligne
Vous connaissez un service de proxys Google passed par API ? (un peu comme ce que doit utiliser Gscraper ?)
Arnaud BOYER, eMarketing Manager @ Label Group
🔴 Hors ligne
Moi aussi mon petit témoignage.
Perso j'ai quelques serveur dédié SoYouStart, donc j'ai mis des Squid dessus rapidement (ça se configure en 30sec) + des proxys public + proxy LimeProxy
J'ai qualifié les keywords que je désire suivre d'une note de 1 a 10, dans mon soft j'ai mis une tranche de note pour chaque proxys, les proxys publiques scrapp tous les keywords entre 1 et 3 comme notes, les LimeProxy scrapp de 4 a 7 et les proxy sur Squid scrapp de 7 a 10.
Quand un proxy public est cramé je le désactive de la list , si il a déjà réussi avant a scrappé, il se réactive automatiquement au bout d'un moment.
comme ça je peu scrapp pas mal de keywords dans la semaine sans avoir trop trop d'IP, je surveille 10.000 keywords environs.
Voila pour le moment ou je raconte un peu ma vie
Maintenant Question , vous envoyé combien de requête minutes a google par IP ?
🔴 Hors ligne
Maintenant Question , vous envoyé combien de requête minutes a google par IP ?
Il semblerait que la bonne pratique soit de laisser entre 20 et 25 secondes entre chaque requête par proxy.
Comme indiqué plus bas, les IP privées sont plus efficace que les proxys, c'est certain. C'est plus onéreux, mais tu passeras moins de temps à maintenant. L'un dans l'autre, tu y gagnes forcément.
🔴 Hors ligne
Il semblerait que la bonne pratique soit de laisser entre 20 et 25 secondes entre chaque requête par proxy.
Comme indiqué plus bas, les IP privées sont plus efficace que les proxys, c'est certain. C'est plus onéreux, mais tu passeras moins de temps à maintenant. L'un dans l'autre, tu y gagnes forcément.
Le timing est effectivement important, mais il y a une grande différence entre faire une requête innocente (un simple mot clé) et un footprint contenant inurl par exemple. Google aime tellement pas ça que même si tu essaies à la mano un certain nombre de fois il va te balancer un captcha, donc sur footprints avec opérateur de recherche, pour de la masse, l'ip privée est aussi innéfficace que ton ip domestique, à moins d'en avoir vraiment beaucoup, mais vraiment beaucoup
🔴 Hors ligne
Oui, je parlais de simples mots-clés. Effectivement, le captcha arrive très rapidement sur des footprints et ce, peu importe la méthode utilisée !
L'interrogation pour des footprint est difficilement industrialisable même avec un très grand nombre d'IPs.
🔴 Hors ligne
Oui, je parlais de simples mots-clés. Effectivement, le captcha arrive très rapidement sur des footprints et ce, peu importe la méthode utilisée !
L'interrogation pour des footprint est difficilement industrialisable même avec un très grand nombre d'IPs.
C'est pas facile, mais c'est possible. La solution les proxys publiques.... beaucoup de proxy publiques
🔴 Hors ligne