Moteur de crawl et de web-scraping

SAAS • Requêtes illimitées • Proxy inclus
Keedata est une plateforme plug-and-play pour tous vos besoins en crawl et web-scraping, s'intégrant facilement dans votre projet.
Ouverture de la Bêta-Test Bêta-Test ouverte
Dans :
  • Nombre de workers par team : 5
  • Nombre de co-équipiers : Illimité
  • Nombre de projets : Illimité
Je m'inscris à la Bêta gratuite

Scraping platform

Basée sur des workflows

Le système de workflow vous permet de pallier à tous les scénarios de scrap. Sans Keedata, vous auriez surement dû développer votre propre Bot pour un site en particulier. Avec Keedata, vous pouvez simuler des navigations complètes : postez des formulaires, appelez une API via un token personnalisé, transformez et affinez vos datas avant de les enregistrer en base de donnée, en chaînant simplement vos différentes actions.

Vous pouvez même scrapper plusieurs sites dans le même worklow : un site de petites annonces, puis les pages jaunes..

Data Template

Sur Keedata, vous pouvez "coder" votre Data Template. Grâce à un pseudo-code, vous pouvez récupérer votre data en une seule ligne de code et économiser beaucoup de post-traitements.

Vous avez deux styles d'écriture à disposition, en fonction de vos préférences :
price: float(css(".product-price"))
price: css(".product-price").float()

Afin de stocker de la data parfaitement propre, vous avez à dispositions une vingtaine de fonctions pour caster et transformer votre data.

Data visualization

Vous pouvez choisir d'envoyer chaque data récoltées dans un "Data visualizer". Grâce à lui, vous disposez d'un véritable moteur de recherche pour votre dataset, directement accessible depuis votre navigateur.

Bucket MongoDB

Vous pouvez exporter vos données directement dans votre base MongoDB.

Le typage de votre data est respecté, et les updates sont gérés.

Automatisation

Planification

En quelques clics, créez un lancement planifié de votre crawl. Vous pouvez lancer le même crawl quotidiennement.

En complément d'un crawl complet quotidien, il est possible de faire un crawl de "découverte de nouveaux contenus" toutes les heures.

Démarrage dynamique via API

Il est possible de déclencher des crawls via l'API. Pratique pour utiliser du crawl dans votre application !
Soyez les premiers à tester

Vous allez adorer ! Soyez tenu informé, inscrivez-vous sur la liste :

{{ error }}
Bien noté ! On vous tient au courant... ;)
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de Cookies pour vous proposer des publicités ciblées et réaliser des statistiques de visites.