L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 862 résultats.
Mission freelance
Scrum Master – Data/IA - (conformité)
Publiée le
Kanban
Scrum
1 an
400-550 €
Île-de-France, France
Télétravail partiel
🎯 Contexte & Objectifs Le pôle Data & IA recherche un Scrum Master bilingue et expérimenté pour accompagner une équipe internationale de 15 Data Scientists dans le cadre de projets de développement et de missions d’inspection. 🔑 Missions principales Faciliter et animer le fonctionnement de l’équipe (rituels agiles, backlog, rétrospectives). Garantir le respect des méthodes agiles (Scrum, Kanban, Scrumban). Suivre la vélocité, burndowns, obstacles et actions. Proposer et mettre en place des méthodes et outils favorisant efficacité, créativité et initiatives. Animer une équipe multi-nationale (anglais requis). Générer les KPI de suivi et rapports pour le PO et le management.
Mission freelance
Consultant DATA MANAGEMENT ServiceNow H/F
Publiée le
CMDB
ServiceNow
6 mois
400-550 €
Toulouse, Occitanie
Télétravail partiel
Au sein de cette gouvernance de données, un accent particulier est mis sur la qualité des données dont les enjeux sont identifiés et priorisés et sur lesquels une communauté de Data Stewards est d'ores et déjà activement engagée. Au sein de l'équipe IT4IT Data & AI Office, en tant qu'expert(e) Data Steward, votre mission consistera à : Définir et évaluer les attributs clés de la qualité des données. Analyser en profondeur les données invalides ou manquantes afin d'en identifier les causes principales. Concevoir et implémenter des tableaux de bord pertinents pour le suivi de la qualité des données CMDB. Auditer et optimiser les processus métier ayant un impact sur la qualité des données. Contribuer activement à l'élaboration et à l'évolution de la stratégie de qualité des données de la CMDB. Coordonner et piloter les actions de remédiation de la qualité des données en étroite collaboration avec les Data Owners et les équipes à l’origine des données. Proposer et mettre en œuvre des solutions techniques ou des mises à jour de données. Rédiger une documentation technique et fonctionnelle exhaustive, ainsi que des articles de base de connaissances (knowledge articles). Animer et participer au réseau des utilisateurs pour promouvoir l'adhésion aux objectifs de gouvernance des données.
Offre d'emploi
Mission Freelance / portage - Ingénieur Cloud Azure / DevOps – Data - Hauts-de-Seine, France
Publiée le
Azure
Cloud
IAC
3 ans
40k-55k €
100-600 €
Hauts-de-Seine, France
Télétravail partiel
Bonjour, Pour l’un de mes clients, je recherche un(e) : Description : Construire et industrialiser des infrastructures Cloud Public sur Azure, configurer les équipements CI/CD et collaborer avec les équipes Dev, sécurité et projets pour la transformation data. Compétences techniques : Big Data : Azure DataLake, EventHub, Databricks, ADF - Confirmé Cloud : Microsoft Azure - Confirmé Infrastructure as Code : ARM, YAML - Confirmé Intégration/déploiement continu : Git, Azure DevOps - Confirmé Langues : Français courant Missions principales : Construire et industrialiser les infrastructures Cloud Azure Mettre en place CI/CD et outils de surveillance pour haute disponibilité Participer aux validations techniques des mises en production Collaborer avec Dev, sécurité et projets Profil requis : Bac+3/5 en informatique Expérience 5-10 ans en contexte Data Connaissances : Cloud Azure, IaC (ARM/YAML), CI/CD (Git, Azure DevOps), Big Data (DataLake, EventHub, Databricks, ADF, Power BI), Web (FunctionApp, WebApp), Micro-services/containers (AKS), Bases SQL DB/CosmosDB Plus : Spark, Scala Mots-clés : Azure, Cloud, DevOps, Data, CI/CD, ARM, YAML, Git, Azure DevOps, DataLake, EventHub, Databricks, ADF, Power BI Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger.
Mission freelance
POT8640 - Un Data Engineer BigQuery sur Lille
Publiée le
BigQuery
6 mois
300-400 €
Lille, Hauts-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille.
Mission freelance
Product Owner - Cybersécurité (H/F)
Publiée le
Azure Data Factory
Cybersécurité
Microsoft Power BI
12 mois
600-700 €
La Défense, Île-de-France
Télétravail partiel
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Product Owner Data / BI (H/F) pour intervenir sur un projet Datalake Cybersécurité chez l'un de nos clients. Voici un aperçu détaillé de vos missions 🎯 : - Rédiger le cahier des charges et définir les plannings de la squad. - Définir et analyser les KPIs fonctionnels et techniques avec les équipes métiers. - Analyser les sources de données nécessaires à la construction des KPIs et optimiser leur calcul. - Réaliser la modélisation des données dans PowerBI et Snowflake . - Définir les règles de gestion des accès, de data gouvernance et d’historisation des données. - Assurer la qualité des performances , le suivi des ordonnancements et le monitoring/alerting des sources et de la qualité des données. - Gérer le backlog dans JIRA et suivre les cérémonies Agile . - Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI . - Rédiger et suivre la documentation fonctionnelle et technique . - Assurer la communication, la formation et le support auprès des utilisateurs. - Organiser et animer les comités de pilotage et le suivi du run.
Mission freelance
229383/BUSINESS ANALYST Système de place Règlements interbancaires SEPA et Target 2
Publiée le
Business Analyst
SEPA
6 mois
Paris, France
BUSINESS ANALYST Système de place Règlements interbancaires SEPA et Target 2 Paris (no remote) Project context Business Analyst expérimenté sur les échanges interbancaires et les virements internationaux Dans un contexte agile mission évolution applicative et un peu de RUN Goals and deliverables • Dossier conception fonctionnelle • Plan de recette • Cahier de recette • Recette BUSINESS ANALYST Système de place Règlements interbancaires SEPA et Target 2 Expected skills Skills Skill level virement sepa Expert
Offre d'emploi
Data Engineer AWS H/F
Publiée le
Ansible
AWS Cloud
Docker
12 mois
40k-55k €
440-550 €
Île-de-France, France
Télétravail partiel
Développement de la plateforme de microservices AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les media • Assurer la qualité, la fiabilité et l'accessibilité des données. • Développer les pipelines de traitement de données avec orientation media • Collaborer avec les équipes de data science pour comprendre les besoins en données et mettre en place les solutions appropriées. • Recueillir les besoins avec des métiers ou clients. • Assurer la maintenance et l'optimisation des systèmes de données existants. Livrables attendus : Des analyses, développements et documentations de qualité.
Mission freelance
Data Engineer Semarchy xDM / xDI Montpellier
Publiée le
Semarchy
6 mois
330-350 €
Montpellier, Occitanie
Télétravail partiel
Data Engineer Semarchy xDM / xDI Montpellier Stambia Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Mission freelance
Mission Consultant Cybersécurité – Data Security & Gouvernance
Publiée le
Cybersécurité
Gouvernance
3 mois
Paris, France
Télétravail partiel
Dans le cadre de l’évolution de sa stratégie de sécurité des données, un grand groupe international recherche un consultant expérimenté pour accompagner la fonction Group Data CISO et jouer un rôle clé en tant qu’interlocuteur privilégié des différentes parties prenantes ayant des responsabilités liées à la Data. Objectifs de la mission Contribuer à la définition et à la mise en œuvre de la stratégie de sécurité de la Data. Assurer la coordination entre les différentes fonctions (Cybersécurité, Data Privacy, Data Management, etc.). Participer activement à la préparation et à l’organisation des Group Data Security Steering Committees .Principales activités Interagir avec l’ensemble des parties prenantes afin de définir les priorités en matière d’exigences cybersécurité autour de la Data. Garantir la faisabilité du déploiement de ces exigences (incluant la disponibilité des outils nécessaires). Jouer un rôle de conciliateur avec les équipes GDPO (Group Data Privacy Officer) et proposer les évolutions liées à la sécurité des données personnelles à instruire dans la matrice cyber. Participer à l’amélioration continue de la gouvernance de la sécurité de la Data. Contribuer à la préparation et au suivi des Group DataSec Steering Committees .
Mission freelance
Data Engineer GCP confirmé
Publiée le
10 mois
Lille, Hauts-de-France
Nous accompagnons actuellement un client final basé en Île-de-France , qui recherche un Data Engineer confirmé/expert GCP pour renforcer son équipe pluridisciplinaire (Data Engineer, DevSecFinOps). Contexte & missions principales : RUN : Maintien en condition opérationnelle (RDO multi-sources, 15 applications), gestion des incidents, suivi des flux, mise en production via Git. BUILD : Conception & développement de solutions data (BigQuery, Data Lake, SQL), modélisation sous gouvernance data, intégration Supply Chain, tests & reporting. EXPERTISE : Apport d'expertise GCP, montée en compétences sur le SI, approche FinOps (maîtrise et optimisation des coûts cloud). Livrables attendus : météo quotidienne, remontées d'alertes, scripts & requêtes, documentations, états d'avancement. Compétences requises : Expert impératif : GCP (BigQuery, Data Lake, SQL), GitLab, Terraform Confirmé : Script Shell, IWS, Airflow Langues : Français courant (impératif), Anglais bon niveau Informations pratiques : Démarrage : ASAP Localisation : Île-de-France (hybride) Durée : mission longue possible Contexte : client final - pas de sous-traitance Montreal Associates is acting as an Employment Business in relation to this vacancy.
Mission freelance
Mission Freelance – Data Engineer (GCP / Python / BigQuery)
Publiée le
Google Cloud Platform (GCP)
1 an
400-560 €
Île-de-France, France
Télétravail partiel
Vos missions Concevoir, construire et maintenir des pipelines de données robustes et scalables (batch & stream). Participer à la mise en production et à la qualité des datasets liés à la personnalisation des contenus. Industrialiser les traitements avec Airflow, Terraform et Terragrunt. Garantir la qualité et l’intégrité des données (tests, monitoring, alerting). Optimiser les performances et la structure des données dans BigQuery . Participer à la gouvernance Data : documentation, bonnes pratiques, CI/CD, sécurité. Collaborer avec les équipes Data pour les aider à exploiter et requêter efficacement la donnée. Assurer la veille technologique sur les outils Data & Cloud. 🛠️ Stack technique Langages : Python, SQL, PySpark Cloud : Google Cloud Platform (BigQuery, Cloud Storage, IAM) Orchestration : Airflow Infra as Code : Terraform, Terragrunt CI/CD : GitLab CI Méthodologie : Agile / Scrum / Kanban
Mission freelance
Expert Data Scientist – Secteur Public (H/F)
Publiée le
Dataiku
Microsoft Power BI
6 mois
400-750 €
Paris, France
Télétravail partiel
Compétences clés : Dataiku • Microsoft Power BI • MySQL • Talend Dans le cadre de projets stratégiques de transformation et de modernisation du secteur public, nous recherchons un(e) Expert Data Scientist H/F freelance pour accompagner nos clients dans la valorisation et l’exploitation avancée de leurs données. Vous interviendrez en tant qu’expert(e) sur des problématiques complexes, avec un rôle clé dans la définition et la mise en œuvre de solutions data-driven à forte valeur ajoutée. La maîtrise de Dataiku est indispensable. Vos missions : Piloter le développement de modèles de data science complexes dans Dataiku : exploration, apprentissage automatique, analyses prédictives et prescriptives. Définir les stratégies de collecte, d’intégration et d’exploitation de données hétérogènes en garantissant leur qualité et leur conformité réglementaire (RGPD, sécurité des données). Concevoir et automatiser des pipelines de données robustes avec Dataiku et/ou Talend. Construire et superviser la réalisation de tableaux de bord et visualisations avancées avec Tableau ou Power BI, en réponse à des enjeux métiers variés. Jouer un rôle de référent(e) technique auprès des équipes internes et des interlocuteurs métiers, en les accompagnant dans la formalisation des besoins et la diffusion d’une culture data. Contribuer activement aux choix d’architecture et à la mise en place des bonnes pratiques data science au sein des projets.
Mission freelance
DataOps AWS Engineer -MlOps
Publiée le
Apache Airflow
AWS Cloud
AWS Glue
12 mois
500-580 €
Paris, France
Télétravail partiel
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .
Mission freelance
Data Engineer Azure / Databricks - Plus de 6 ans d'expérience
Publiée le
CI/CD
Databricks
Python
6 mois
480-580 €
Belgique
Mission : Vous développerez des pipelines de données (ingestion/transformation), industrialiserez l'ETL/ELT, réaliserez des scripts, piloterez l'automatisation, garantirez la qualité et l'observabilité des données et participerez aux lots de travaux d'extraction. Toutes ces activités seront menées en étroite collaboration avec le client. Principales tâches : Construire les pipelines (ingestion/transformation). Industrialiser l'ETL/ELT. Scripting et automatisation. Qualité et observabilité des données. Participation aux lots de travaux d'extraction. Compétences techniques requises : Databricks (Spark, cahiers). Python/SQL. DeltaLake. Orchestration (par exemple, tâches Azure Data Factory/Databricks). Données CI/CD, tests, performances. Langues: Anglais ; français/néerlandais un plus. Emplacement: Belgique, avec des déplacements possibles avec le Portugal et d'autres pays.
Mission freelance
Business Analyst Moyens de Paiement
Publiée le
Business Analyst
12 mois
Villejuif, Île-de-France
Télétravail partiel
Cherry Pick est à la recherche d'un Business Analyst Moyens de Paiement pour l'un de ses clients dans le secteur bancaires. Missions : - Participation au projet IP et à ses impacts au sein de la squad CIP (Corporate instant paiement) Participation aux projets ENERGIES 2°30 impactant au sein de la squad CIP (Corporate instant paiement) - Paricipation au maintien en condition opérationnel des applications existantes - Prise en charge des études d’impacts en cas de demande d’évolution. Expert sur les sujets de Moyens de paiments.
Mission freelance
Data Engineer Semarchy xDM / xDI Montpellier
Publiée le
Semarchy
6 mois
330-350 €
Montpellier, Occitanie
Télétravail partiel
Data Engineer Semarchy xDM / xDI Montpellier Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Augmentation de la CSG et donc de la flat tax votée à assemblée !
- Obtenir un numéro D.U.N.S en auto entreprise
- CFE Cas spécial ou d'autres (mauvaises) expérience ??
- Choix mission fonctionnel data
- Stratégie épuisement des fonds jusqu'à la retraite
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
1862 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois