Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 594 résultats.
Freelance

Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)

Publiée le
AWS Cloud
Azure
CI/CD

1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
CDI
Freelance

Offre d'emploi
Architecte Solutions Data

Publiée le
Big Data
CI/CD
SAS

2 ans
Île-de-France, France
1G-Link est une entreprise innovante en pleine croissance, au cœur de la transformation numérique. Nous accompagnons les organisations dans la valorisation de leurs données à travers des architectures scalables, modernes et performantes. Dans le cadre de notre développement, nous recherchons un(e) Architecte Solutions Data avec une expertise forte sur Snowflake et Microsoft Azure. Vos missions En tant que membre de l’équipe Data Capture, le poste requiert un bagage technique et architectural ainsi qu’une solide expérience pratique des technologies Cloud, du développement de microservices et de l’Event Driven Architecture. Il implique également une collaboration étroite avec les équipes IT Groupe/Zone, les partenaires métiers, les partenaires externes et l’ensemble des membres de l’équipe d’intégration. En tant qu’Architecte Data, vous serez au centre des projets de transformation data de nos clients. Vos responsabilités incluront : Concevoir et proposer des solutions sur la donnée en utilisant les technologies Azure Cloud dans notre cadre de référence Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux bonnes pratiques architecturales Concevoir et développer des APIs / Microservices pour enrichir notre cadre de solutions Soutenir la stratégie d’Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en self-service Participer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et à travers l’organisation Data & Analytics Être le référent Cloud de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’équipe Sécurité sur les sujets concernés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes Capacité à produire une restitution documentaire (dans le cadre d’un audit, d’un POC, ou selon les standards et l’architecture) Les + de l’offre Projets innovants à fort impact Culture d’entreprise basée sur la collaboration, la montée en compétence et la bienveillance Environnement de travail flexible (télétravail possible : 2 jours par semaine) Accès à un programme de certification et de formation continue
Freelance

Mission freelance
CP Senior Tech

Publiée le
Chef

1 an
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients parisiens dans le secteur de l'édition, je suis à la recherche d'un Chef de projet sénior Tech. Les missions Au sein de la Direction Technologies, Data & Digital (DTDD) du groupe et plus précisément au sein de la Digital Factory, vous intervenez dans l’équipe travaillant sur la plateforme SSO client. Celle-ci est responsable de l’authentification, de la fédération d’identité, de la gestion des accès et de l’enrichissement des données comptes utilisateurs et abonnements. Cette plateforme constitue un socle technique transverse, au service de l’ensemble des marques et produits numériques du groupe. Dans ce cadre, nous recherchons un(e) Chef(fe) de Projet Senior expérimenté(e) dans le pilotage transverse et multi-projets relevant de différents domaines fonctionnels ou techniques. Cette personne sera chargée à la fois de conduire des projets de bout en bout dont il a la responsabilité directe (projets d’évolutions, fiabilisation et rationalisation des différentes briques applicatives de la plateforme client), mais aussi de coordonner l’équipe sur les projets pilotés par d’autres entités équipes (Digital Factory, Data, Sécurité, Infrastructure, Architecture, E-commerce, Produits, etc.) en garantissant le respect des critères de qualité et la conformité aux délais et coûts établis. L’équipe est composée d’un lead tech et de 3 développeurs.
Freelance

Mission freelance
Chef de projet Infrastructure As Code

Publiée le
Chef
Infrastructure

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un CHEF DE PROJET SENIOR avec une expérience en gestion de Projet Infrastructure As code. Le consultant aura à conduire des projets techniques tel que des projets d'infrastructures autour des nouvelles technologies (Cloud, Container, IaC infrastructure As Code, micro segmentation NSX …etc.) Ces projets devront être mener depuis les phases d'étude et de conception jusqu'au déploiement et à l'intégration complète dans le respect des engagements projets : qualité, coûts, délais et sécurité Les principales missions opérationnelles seront les suivantes : - Rédiger et porter les demandes de financement des études et des projets. - Organiser, planifier, coordonner et piloter l'ensemble des ressources, processus et intervenants mobilisés sur les projets. - Contribuer activement aux phases d'étude, de conception (recueil des besoins, conseils techniques, recommandations, stratégie), d'achats (budget, appel d'offre, sélection de fournisseurs) et de réalisation (maquettage, déploiement/implémentation, transition, gestion du changement, recette). - Assurer le suivi financier, le planning des projets et les risques. - Assurer les activités d'AMOA projet : • Analyse fonctionnelle du besoin, • Rédaction des spécifications, • Réalisation des recettes. - Animer les revues et comités de pilotage des projets. - Conduire le changement de bout en bout et assurer le transfert de compétences aux équipes chargées du fonctionnement opérationnel des solutions. - Définir et piloter la mise en œuvre de la maintenance des nouvelles solutions.
Freelance

Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)

Publiée le
Amazon DynamoDB
Amazon S3
API

12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Offre premium
Freelance
CDI
CDD

Offre d'emploi
Chef de projet S/4HANA

Publiée le
SAP

18 mois
Paris, France
Dans le cadre du déploiement de SAP S/4HANA, nous recherchons un Chef de Projet Opérationnel expérimenté pour piloter la mise en œuvre au plus près de nos équipes d'intégration CODiLOG et en relation avec le client (IT + Métier). Le projet vise à concilier la standardisation du Core Model avec les spécificités locales (France), tout en garantissant la qualité, le respect des délais et des coûts, et une forte adhésion des utilisateurs. Pilotage opérationnel du projet Piloter le projet S/4HANA sur le plan opérationnel (planning, coûts, qualité, risques, livrables). Coordonner les activités entre les équipes locales, centrales et l’intégrateur CODiLOG. Suivre les avancements, écarts, plans d’action et assurer un reporting régulier à la direction de projet. Garantir le respect du périmètre, des délais et du budget. Interface entre IT Client / Métier et intégrateur CODiLOG Être le point de contact privilégié entre les équipes métiers et les consultants de l’intégrateur. Comprendre et challenger les paramétrages SAP proposés. Assurer la cohérence fonctionnelle entre les domaines logistique, supply chain et production. Accompagner la phase de conception : validation des processus, arbitrages sur les adaptations locales, évaluation des impacts financiers. Conduite du changement et adoption Contribuer activement à la formation, communication et accompagnement des utilisateurs. Favoriser l’adhésion aux nouveaux processus et la standardisation. Identifier les résistances et proposer des leviers d’accompagnement. Qualité, conformité et sécurité Garantir la qualité des livrables et la cohérence des données dans S/4HANA. Veiller à la conformité réglementaire française (fiscalité, traçabilité, obligations locales). Participer à la mise en œuvre d’un hébergement Cloud. Management transversal et alignement des équipes Définir clairement les rôles et responsabilités entre les entités locales et centrales. Animer les comités opérationnels et assurer la coordination inter-domaines.
Freelance

Mission freelance
Data Engineer Expert - Infogérance - Lille (H/F)

Publiée le
Microsoft Fabric
Python

6 mois
550-600 €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre d'un projet ambitieux de transformation digitale, notre entreprise spécialisée dans les technologies de l'information et des télécommunications, située à Lille, cherche à renforcer son équipe avec deux Data Engineers experts. Notre mission : offrir des solutions robustes et évolutives basées sur Microsoft Fabric pour répondre aux besoins stratégiques de nos clients. Vous rejoindrez une équipe dynamique et collaborative, composée de Data Analysts et de spécialistes IT, où votre expertise sera cruciale pour la réussite de projets multicanaux et l'intégration de données complexes. Dans cette mission critique, vous serez un maillon essentiel de notre département Data Operations, travaillant sur des projets à fort impact business. Urgent : un Data Analyst doit rejoindre nos équipes sous 2 semaines, et le staffing global est prévu pour décembre, en vue de démarrer les lots en janvier pour une durée de 6 mois renouvelables, jusqu'à 12 mois selon l'évolution des projets. Missions - Implémenter et optimiser les composants Microsoft Fabric pour répondre à des cas d’usage prioritaires. - Concevoir et industrialiser des pipelines ETL/ELT, APIs et modèles de données avancés. - Assurer l'observabilité, la qualité des données, les tests rigoureux, ainsi que la mise en place des pratiques CI/CD. - Optimisation des coûts/performance, renforcer les aspects sécurité et conformité. - Assurer une collaboration étroite et efficace avec les Data Analysts et les équipes métiers.
Freelance
CDI

Offre d'emploi
Analyste Designer Data – Migration & Extraction (H/F)

Publiée le
GED (Gestion Électronique des Documents)

12 mois
56k-70k €
500-650 €
Paris, France
Télétravail partiel
CITECH recrute ! 👌 ✨ Vous aimez les environnements complexes, réglementés et à fort enjeu data ? Vous souhaitez participer à un programme stratégique de transformation digitale dans le domaine du Regulatory pharmaceutique ? Cette mission est faite pour vous ! Nous recherchons un(e) Analyste Designer Data – Migration & Extraction (H/F) 🎯 👉 Vous interviendrez pour un acteur majeur de l’industrie pharmaceutique, au cœur du Programme Holistic RIM , dédié à la transformation des processus d’AMM et à la modernisation des systèmes documentaires. 👈 Cette mission s’inscrit dans le renforcement des équipes « Intégration, Data & BI ». Job Description 🙌🔽 Vos missions principales seront les suivantes : 🔽🙌 🔸 Recueil & Analyse des besoins Participer au recueil des besoins métiers et produire les spécifications fonctionnelles et techniques. Organiser les ateliers avec les équipes métier, BSS, RUN et Regulatory. Contribuer aux arbitrages et priorisations avec les équipes HRIM, RUN et TALEND Factory. 🔸 Conception et Design des solutions d’extraction Produire les spécifications High Level et Low Level pour les extractions GED. Garantir l’adéquation entre besoins métier, exigences techniques et solutions proposées. Travailler dans l’équipe « Extraction & GED » du stream Intégration. 🔸 Pilotage, coordination & interface Assurer l’interface fonctionnelle avec la Factory TALEND lors de la production des TDS. Challenger les propositions techniques et garantir la cohérence de bout en bout. Participer à la création et au suivi du plan projet . 🔸 Tests, validation & accompagnement au RUN Préparer plans de tests, jeux d'essai et superviser les tests d’intégration système (SIT). Rédiger le rapport de tests et accompagner les équipes de Tests & Validation. Supporter le RUN dans la mise en production des chaînes d’extraction.
Freelance

Mission freelance
Expertise Data Assurance (DSN)

Publiée le
CoreData

6 jours
400-600 €
Paris, France
Télétravail partiel
Vous interviendrez dans les chantiers de transformation afin d'accompagner les travaux sur l'usage des données pouvant provenir des DSN. A ce titre, vos missions consisteront à contribuer: Concevoir un modèle de données Socle des données et de l'implémenter dans le DataWarehouse Recueil des usages de Données DSN Réalisation de l’analyse fonctionnelle et technique Proposition de modélisation fonctionnelle des données, ayant un sens métier Proposition d’Architecture fonctionnelle et technique pour l’implémentation Développement du socle Déploiement du socle auprès des métiers et utilisateurs de ces données Partage de la connaissance du fonctionnement de la DSN, du modèle réalisé et de l’implémentation Pilotage du chantier pour tenir un engagement fort d’implémentation Animation et coordination des ateliers et travaux entre les parties prenantes Organisation et validation des phases de tests et de recette. Suivi des actions, des risques et des décisions pour garantir le bon déroulement des projets
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance

Mission freelance
Data Privacy COE Expert

Publiée le
Reporting

18 mois
100-600 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme,Expert Spécialités technologiques : RGPD,Reporting,Gestion de projet Type de facturation : Assistance Technique (Facturation avec un taux journalier) Compétences : Méthodes / Normes Adapter Soft skills Rigueur Adaptation Langues Français Anglais MISSIONS Contexte de la mission La mission s’inscrit dans un contexte de renforcement de la conformité réglementaire en matière de protection des données personnelles au sein d’un environnement international complexe. L’objectif est d’assurer l’adaptation, la mise en œuvre et le suivi des politiques de Data Privacy conformément aux législations applicables (RGPD, lois locales et standards internes). Le consultant interviendra en coordination étroite avec les équipes juridiques, IT et de gouvernance afin de garantir la conformité, la sécurité et la cohérence des pratiques de traitement des données à caractère personnel. Le consultant aura pour mission principale de développer, adapter et piloter les politiques de confidentialité et de protection des données, ainsi que d’assurer un rôle d’expertise et de conseil transverse. Principales responsabilités : - Développement et adaptation des politiques internes de confidentialité conformément aux lois et règlements applicables ; - Élaboration et mise à jour des formulaires de consentement, autorisations, notices d’information et supports de communication liés à la protection des données ; - Mise en œuvre et suivi des exigences détaillées nécessaires pour assurer une gestion conforme des traitements spécifiques ; - Formation et accompagnement des équipes métiers sur les enjeux de conformité et de protection des données personnelles ; - Gestion et contrôle du registre de traitement des données (Data Protection Register) ; - Support et validation des projets nécessitant une évaluation d’impact relative à la vie privée (DPIA) et émission d’avis de conformité ; - Interface avec les équipes dédiées à la gestion des demandes d’accès, incidents et violations de données personnelles ; - Rédaction et revue d’accords de confidentialité, d’évaluations d’impact, de clauses contractuelles et de notes de position ; - Analyse et supervision des activités métiers et de la conformité des contrats fournisseurs ; - Participation aux comités de gouvernance liés à la protection des données ; - Suivi permanent de la conformité et reporting vers les instances de gouvernance internes. Expertise souhaitée - Expérience préalable en Data Privacy / Compliance (profil juridique ou IT sécurité) ; - Solide compréhension des cadres réglementaires : RGPD, directives européennes, bonnes pratiques de conformité ; - Maîtrise de la gestion du risque lié à la donnée (registre, DPIA, reporting, audit) ; - Capacité à analyser les traitements et à recommander des actions correctives.
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

Publiée le
BI

24 mois
250-500 €
Paris, France
Télétravail partiel
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance

Mission freelance
Data Analyst (CRM Microsoft Dynamics & Power BI)

Publiée le
CRM

6 mois
400 €
Paris, France
Télétravail partiel
Intitulé du poste Data Analyst – Microsoft Dynamics & Power BI Missions principales Maîtriser l’environnement CRM Microsoft Dynamics et comprendre les modèles de données métiers associés. Assurer la maintenance évolutive et corrective des dashboards Power BI existants (optimisation, mises à jour, qualité des visuels). Concevoir et développer de nouveaux tableaux de bord adaptés aux besoins métiers, en intégrant les indicateurs clés de performance (KPI). Mettre en place des outils et règles de contrôle garantissant la qualité, la cohérence et la fiabilité de la donnée, tant dans le CRM que dans les tableaux de bord. Collaborer avec les équipes métiers pour comprendre leurs enjeux, traduire les besoins en spécifications analytiques et assurer un pilotage par la donnée fiable. Participer à l’amélioration continue du modèle de données et des processus d’alimentation du CRM et de Power BI. Livrables attendus Dashboards Power BI fonctionnels, documentés et maintenables. Documentation data (dictionnaire, mapping, règles de gestion, contrôles qualité). Rapports réguliers sur les KPI et analyses ad hoc. Plans d’actions data quality et suivi de leur mise en œuvre. Compétences techniques Microsoft Dynamics CRM : niveau expert Microsoft Power BI : expert (DAX, Power Query, modélisation, datasets) Conception et reporting KPI : expert Maîtrise de la pensée analytique : confirmé Connaissance des bonnes pratiques de data quality et gouvernance Compétences transverses Rigueur analytique & sens critique Capacité à vulgariser et restituer clairement des insights métier Autonomie dans la gestion des besoins et délais Aptitude à collaborer avec des équipes non techniques Langues Français : bilingue Anglais : opérationnel / requis Profil recherché Expérience confirmée en Data Analysis, idéalement dans un environnement CRM Capacité à travailler sur des sujets mêlant process métier, CRM et Business Intelligence Confort avec des environnements data complexes et des enjeux de qualité de données
Freelance
CDI

Offre d'emploi
DATA SCIENTIST F/H | NANTES (44)

Publiée le
Data science
Machine Learning
Python

3 ans
10k-43k €
100-320 €
Nantes, Pays de la Loire
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client au sein d'une équipe de spécialistes et interviendrez sur des sujets variés (risques, fraudes, commerce, etc.). Dans le cadre de votre mission, vous serez en charge de : Analyser les données Créer et utiliser des modèles mathématiques et de Machine Learning Environnement Technique : Python, R, ML Le poste est basé à Nantes (44) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Freelance

Mission freelance
Data Scientist Python (H/F)

Publiée le
Gitlab
PySpark
Python

2 ans
380-430 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Scientist Python (H/F) à Lyon, France. Contexte : Concevoir et réaliser des audits de performance d’exploitation et proposer un programme d’amélioration continue Développer des processus d’analyse automatique des performances Développer des outils de maintenance préventive pour les équipements Anticiper l’impact des évolutions des systèmes et de leur environnement Equipe en charge de l'amélioration continue et de la valorisations des données afin d'améliorer leurs exploitations. Date de début souhaitée : 01/01/2026 Les missions attendues par le Data Scientist Python (H/F) : Activité principale - Analyser le fonctionnement - Modéliser le comportement nominal - Construire des outils d'autodiagnostique - Revue de code / Evaluation des orientations techniques - Maintien des utilitaires internes Activité secondaire - Industrialiser les prototypes - Veille technologique sur les outils utilisés au sein du projet Stack technique de l'équipe Python 3 / Python Dash PySpark SQL / Postgresql Tableau software / PowerBI
Freelance

Mission freelance
Architecte / Expert MongoDB Atlas sur Azure

Publiée le
.NET CORE
Apache Kafka
Architecture ARM

6 mois
530-620 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
2594 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous