L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 686 résultats.
Mission freelance
CONSULTANT SENIOR SAP BW/DATASPHERE H/F
AXONE BY SYNAPSE
Publiée le
BigQuery
Data Lake
Microsoft Power BI
3 mois
Auvergne-Rhône-Alpes, France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Consultant Senior SAP BW / Datasphere H/F afin d’accompagner un programme stratégique de transformation du reporting financier. Dans un contexte hautement confidentiel lié à des enjeux stratégiques et financiers majeurs, le client souhaite remplacer son environnement SAP BW en fin de support (BEX/BIA) par une solution moderne orientée DataLake et BI. Le consultant interviendra dans un cadre sécurisé nécessitant discrétion et rigueur, avec une exposition directe à des décisions structurantes. La mission comprend une phase d’étude, de cadrage, d’avant-vente ainsi que la mise en œuvre opérationnelle. Le consultant agira comme référent technique et stratégique, en contribuant activement aux choix d’architecture et aux orientations data à long terme. Objectif et livrable: Étude de cadrage complète Analyse de l’existant SAP BW Cartographie des données et processus métiers Benchmark des solutions (Datasphere, Snowflake, BigQuery) Recommandations d’architecture cible Plan de migration détaillé Chiffrage global projet + RUN Support avant-vente et construction de proposition Compétences attendues: Expertise SAP BW (modélisation, extraction, reporting) Connaissance SAP Datasphere Expérience DataLake (Snowflake, BigQuery) Architecture data & BI Outils de reporting (SAC, Power BI, MicroStrategy, Jedox) Cadrage projet et recueil des besoins métiers Estimation budgétaire et chiffrage projet Migration SI décisionnel
Mission freelance
Tech Lead Data GCP Expert F/H
SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker
12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Mission freelance
Chef de projet Infra Cloud - Nationalité Européenne requise
Intuition IT Solutions Ltd.
Publiée le
AWS Cloud
Azure
Azure DevOps
9 mois
550-630 €
France
Les objectifs de la mission sont les suivants : · Leader de l'intégration de nouvelles applications dans HashiCorp Vault en utilisant des méthodologies Infrastructure as Code et Configuration as Code, avec une expérience avérée dans la gestion de déploiements à grande échelle dans des environnements hétérogènes. · Développement d'une documentation précise, complète et opérationnellement prête pour HashiCorp Vault. · Organiser des sessions de formation structurées aux équipes concernées afin d'assurer une utilisation correcte et efficace de Vault. · Concevoir et mettre en œuvre de nouvelles fonctionnalités, améliorations et améliorations architecturales au sein de HashiCorp Vault, tout en coordonnant à grande échelle avec de multiples parties prenantes et équipes techniques. · Planification, orchestration et validation des tests de reprise après sinistre (DR), définition des scénarios, critères de réussite et préparation inter-équipes. · Garantir l'excellence opérationnelle continue de la plateforme Vault, incluant la maintenance proactive, l'optimisation des performances, la gestion du cycle de vie et la réduction des risques.
Mission freelance
PM / PMO Data & Digital Transformation
Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Offre d'emploi
Data Scientist Computer Vision sur Alsace
EterniTech
Publiée le
Computer vision
Data science
Vertex AI
3 mois
Grand Est, France
Je recherche pour un de mes clients un Data Scientist Computer Vision sur Alsace Vos missions Développer des modèles de Computer Vision pour identifier les fonctions et contenus des objets dans des images Accompagner les équipes commerciales dans l’exploitation des outils de classification et d’analyse visuelle Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes permettant la visualisation en temps réel de scènes d’ameublement Collaborer avec les équipes métier pour traduire les enjeux business en solutions techniques et aider au déploiement en production. Assurer une veille technologique pour intégrer les dernières avancées en vision par ordinateur Profil recherché Compétences techniques : Maîtrise des technologies Computer Vision (détection, segmentation, classification d’images) Expérience avec Vertex AI et déploiement sur GCP Solides connaissances en machine learning et deep learning Maîtrise de Python et frameworks associés (TensorFlow, PyTorch…) Connaissance des pipelines de production et des bonnes pratiques MLOps Profil : Diplôme Bac+5 (Data Science, IA, Informatique ou équivalent) Expérience significative en Computer Vision de 2 ans minimum dans des contextes similaires Capacité à comprendre les enjeux business et à collaborer avec les équipes commerciales Autonomie, rigueur et curiosité technologique Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et dynamique Télétravail flexible et équipe collaborative
Mission freelance
Data Engineer Devops (4-7ans) - Nantes - H/F
Argain Consulting Innovation
Publiée le
Apache Hive
Artifactory
Gitlab
12 mois
400 €
Nantes, Pays de la Loire
Nous avons besoin d’un renfort de profil développeur pour notre client grand compte dans le secteur bancaire, dont les missions sont les suivantes : Tâches : - Développer des User story relatives à l’ingestion /transformation de données avec des technos de type ETL sur une plateforme Cloudera customisée ou des procédures stockées - Mettre en œuvre les tests unitaires, participer à la recette fonctionnelle avec les Business analyst - Déployer le produit dans différents environnements - Produire la documentation associée à ces développements - Participer à l’affinage et chiffrage des solutions - Garantir et assurer le fonctionnement des produits en production (suivi du run) - Participer aux cérémonies et démarche agile Scrum Attendus : Prise en charge des récits de développement du backlog et des travaux associés (conception /DevTU/Recette/Déploiement ) du périmètre et de la trajectoire des produits de la squad Environnement techniques : Indispensables : ETL Jobfacto / Spark / HIVE / Oozie … Indispensables : Devops : Gitlab, Artifactroy
Mission freelance
Administrateur Plateforme Data (Cloudera & Open Source)
VISIAN
Publiée le
Administration linux
Bash
Cloudera
1 an
400-470 €
Île-de-France, France
Contexte Dans le cadre du développement d’une plateforme Data & IA au sein d’un grand groupe du secteur financier , nous recherchons un Data Platform Engineer / Administrateur Data pour assurer l’administration, l’évolution et la fiabilité des infrastructures Data. Vous interviendrez sur des environnements Big Data basés sur l’écosystème Cloudera et Open Source , au sein d’équipes techniques et métiers. Missions Administration et exploitation des plateformes Data Administrer et maintenir les plateformes Big Data en condition opérationnelle Superviser les systèmes et assurer la maintenance corrective et évolutive Intervenir sur la résolution d’incidents complexes sur les plateformes Data Conception et gestion des flux de données Identifier les besoins métiers en matière de collecte et stockage de données Développer des solutions d’ingestion de données (API, pipelines) Concevoir des architectures de stockage robustes (Data Lake / Big Data) Automatiser les traitements via batchs et pipelines de données Valorisation et gouvernance des données Industrialiser les processus de transformation et de nettoyage des données Gérer des bases de données hétérogènes et multi-sources Garantir la conformité et la gouvernance des données Industrialisation Data Science / IA Industrialiser le déploiement de modèles statistiques et machine learning Mettre en place des mécanismes de validation et monitoring des modèles Assurer le suivi opérationnel des modèles intégrés aux applications Contribution aux projets Data Définir les spécifications techniques Assurer le reporting d’avancement auprès du pilotage projet Apporter un support technique aux équipes métiers et applicatives Le poste peut inclure des astreintes par rotation et une participation à la continuité de service des plateformes Data .
Mission freelance
Architecte Data Snowflake / Cloud / IA Générative – Expérimenté H/F
LeHibou
Publiée le
AI
AWS Cloud
Snowflake
3 ans
500-560 €
Roubaix, Hauts-de-France
Notre client dans le secteur Banque et finance recherche un/une Architecte Data Snowflake / Cloud / IA Générative – ExpérimentéH/F Description de la mission: Architecte Data Snowflake / Cloud / IA Générative Contexte de la mission Dans le cadre de la synergie IT et du développement de l’IA générative au sein de ses applications, le chapitre Data / Entrepôt de données a la responsabilité de faire évoluer les patterns liés à la plateforme Data Snowflake. La mission s’inscrit au sein d’une équipe composée d’experts IT, avec un focus sur l’administration et l’architecture de la plateforme Snowflake, en France et à l’international. Missions principales Au sein de l’équipe Data, fort de vos expériences d’administration de plateforme Snowflake, vos missions principales seront de : • Concevoir les nouveaux patterns nécessaires sur les périmètres suivants : ingestion de données, manipulation de données et restitution, pour des données structurées et non structurées. • Mettre en œuvre ces patterns sur la plateforme France et à l’international pour qu’ils puissent être utilisés par les équipes Data IT et métiers. • Accompagner les différentes équipes IT et métiers, en France et au sein des Business Units, dans le déploiement et la prise en main de la plateforme Snowflake. Activités détaillées • Contribuer aux cadrages des nouveaux besoins techniques métiers liés à la plateforme Snowflake. • Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc.). • Participer aux choix technologiques de l’offre à mettre en place. • Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux patterns (architecture fonctionnelle, applicative, technique). • Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée. • Documenter les patterns retenus à un niveau détaillé afin de les rendre exécutables pour les autres Business Units. • Être l’interlocuteur privilégié des équipes portant les besoins d’agents/usages IA générative au sein du pôle Data. • Accompagner le déploiement de la solution définie auprès d’une Business Unit principale et des autres Business Units. • Accompagner la prise en main de la plateforme Data.
Offre d'emploi
Data Scientist H/F
FED SAS
Publiée le
42k-52k €
Apprieu, Auvergne-Rhône-Alpes
Fed IT, cabinet de recrutement dédié aux fonctions informatiques, recrute pour son client, cabinet de maîtrise d'œuvre et économie de la construction, un(e) Data Scientist H/F, pour accompagner sa croissance. Au sein d'une société de 60 personnes, vous arrivez en création de poste et rejoignez la "transformation digitale" (data et infrastructure). Rattaché(e) au directeur de l'équipe, vous : -Intervenez sur l'ensemble de la data du cabinet (maquettes 3D, mémoires techniques, cycle de vie des produits...), -Structurez et exploitez les données issues des différents métiers de l'entreprise, -Recueillez les besoins des utilisateurs et les traduisez en spécifications techniques, -Réalisez les extractions, transformations et intégrations des données (SQL, et via des ETL et API), -Mettez à disposition les KPI et autres outils d'aide à la décision (Power BI), -Développez des outils complémentaires via Python, -Proposez des méthodes d'automatisation de mise à disposition, stockage et échange de données, -Êtes partie prenante dans le choix des outils data et maintenez l'existant, Rémunération : 42 à 50 K€ bruts/an (fixe selon expérience) + 1 à 3 K€/an (intéressement possible) + 100 € nets/mois (forfait restauration) + forfait annuel lié à la mobilité douce + 1 jour de télétravail/semaine + 6 jours de RTT/an.
Mission freelance
Data Engineer Python / Azure Cloud (H/F)
Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)
12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Mission freelance
Product Owner Data (H/F)
Freelance.com
Publiée le
Business Object
Gherkin
Google Cloud Platform (GCP)
3 ans
400-590 €
Maisons-Alfort, Île-de-France
Dans le cadre d’une équipe Data / BI dédiée aux besoins de reporting, infocentres et valorisation de la donnée, nous recherchons un Product Owner Data expérimenté . Le poste s’inscrit dans un environnement Agile à l’échelle, avec une forte interaction entre les équipes métier, data et IT. Le Product Owner sera responsable du pilotage fonctionnel et de la priorisation des besoins produits autour de la donnée , avec pour principales missions : porter la vision produit et contribuer à son exécution ; participer à l’ exploration continue des besoins ; définir, rédiger et prioriser les features et user stories ; gérer et animer le backlog produit ; contribuer à la stratégie de tests, recette et validation fonctionnelle ; accompagner les utilisateurs dans la conduite du changement ; assurer un reporting régulier auprès des parties prenantes ; participer à la gestion des incidents de production ; collaborer étroitement avec les équipes techniques, architectes, Scrum Master et responsables de train Agile. Le poste couvre l’ensemble du cycle projet : cadrage fonctionnel ; conception ; recette ; automatisation des tests ; déploiement ; support utilisateur ; amélioration continue.
Offre d'emploi
Chef de Projets Data H/F
JEMS
Publiée le
45k-60k €
Nantes, Pays de la Loire
Nous recherchons un Chef de Projets Data pour venir renforcer nos équipes Delivery. Vous serez responsable de la gestion complète des projets de déploiement de nos plateformes data chez nos clients, en garantissant le respect des délais, du budget et de la qualité des livrables. Nous attendons de vous des compétences fortes en Management et Leadership. Vous aurez la charge de : • Superviser l'ensemble du cycle de vie des projets en mode forfaitaire ou en mode dispositif à engagements, jusqu'au déploiement en production • Définir et formaliser les besoins clients en étroite collaboration avec les équipes techniques et les stakeholders • Chiffrer les différentes étapes du projet, identifier les compétences nécessaires, élaborer les plannings, définir le plan de charge (montée en charge des ressources nécessaires) • Assurer un suivi rigoureux des coûts, des délais et des risques, en identifiant et en gérant les éventuels écarts de périmètre • Initialiser et maintenir le plan d'assurance qualité à jour • Encadrer et animer les équipes projets, en motivant et en assurant un suivi efficace de la performance de l'équipe • Garantir la qualité des livrables en supervisant les tests, la validation des fonctionnalités et la conformité aux exigences spécifiées • Participer à l'amélioration continue des processus et méthodologies de gestion de projets (plan de progrès) • Préparer des rapports réguliers sur l'état d'avancement des projets et les résultats obtenus. Référence de l'offre : 87ycevvf2n
Offre d'emploi
Architecte Data
R&S TELECOM
Publiée le
Apache Hive
Cloudera
Hadoop
1 mois
Lyon, Auvergne-Rhône-Alpes
Le profil interviendra pour définir, concevoir et accomagner la construction de l'architecture cible Data. Ses missions principales seront de : Définir l’architecture cible Data : concevoir l’architecture Data cible n, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance).
Offre d'emploi
Chef de Projets Data H/F
JEMS
Publiée le
45k-55k €
Nice, Provence-Alpes-Côte d'Azur
Nous recherchons un Chef de Projets Data pour venir renforcer nos équipes Delivery. Vous serez responsable de la gestion complète des projets de déploiement de nos plateformes data chez nos clients, en garantissant le respect des délais, du budget et de la qualité des livrables. Nous attendons de vous des compétences fortes en Management et Leadership. Vous aurez la charge de : • Superviser l'ensemble du cycle de vie des projets en mode forfaitaire ou en mode dispositif à engagements, jusqu'au déploiement en production • Définir et formaliser les besoins clients en étroite collaboration avec les équipes techniques et les stakeholders • Chiffrer les différentes étapes du projet, identifier les compétences nécessaires, élaborer les plannings, définir le plan de charge (montée en charge des ressources nécessaires) • Assurer un suivi rigoureux des coûts, des délais et des risques, en identifiant et en gérant les éventuels écarts de périmètre • Initialiser et maintenir le plan d'assurance qualité à jour • Encadrer et animer les équipes projets, en motivant et en assurant un suivi efficace de la performance de l'équipe • Garantir la qualité des livrables en supervisant les tests, la validation des fonctionnalités et la conformité aux exigences spécifiées • Participer à l'amélioration continue des processus et méthodologies de gestion de projets (plan de progrès) • Préparer des rapports réguliers sur l'état d'avancement des projets et les résultats obtenus. Référence de l'offre : j5wop5mqy9
Offre d'emploi
Développeur web / Data (H/F)
ADSearch
Publiée le
50k-60k €
Pantin, Île-de-France
Développeur web / data H/F – CDD – Pantin – Développement, Data, SQL La division IT de notre bureau Paris recherche pour son client, un organisme, un Développeur web / data (H/F) à Paris. Rattaché au responsable du département études et développement de la DSI, vous prenez en charge l’analyse, le traitement et la valorisation des données dans le cadre des missions qui vous sont confiées. Vous participez à la conception, au développement et à l’optimisation des applications nécessaires afin d’assurer la fiabilité et la performance des flux de données. VOS MISSIONS Vous serez en charge des missions suivantes : Collecter, nettoyer et structurer des données issues de sources variées (bases de données, API, fichiers externes). Réaliser des analyses pour répondre aux besoins métiers et formuler des recommandations basées sur les données. Concevoir des rapports et dashboards interactifs à l’aide d’outils de Business Intelligence. Gérer, maintenir et optimiser des bases de données
Offre d'emploi
Data Scientist / MLOps H/F
JEMS
Publiée le
45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un(e) Data Scientist capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Gourou de la donnée, vous vous amusez à faire parler les données et à les mettre au service des entreprises. Vous êtes donc à la croisée d'enjeux fonctionnels et stratégiques : Vous aurez la charge de : • Étudier des données en possession de l'entreprise • Définir et récupérer des données pertinentes à extraire et à traiter en lien avec la production de l'entreprise, la vente ou encore liées aux données clients • Développer des algorithmes permettant d'améliorer les résultats de recherches et de ciblages • Élaborer des modèles prédictifs afin d'anticiper l'évolution des données et tendances relatives à l'activité de l'entreprise Référence de l'offre : ybvz12nuz4
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2686 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois