L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 073 résultats.
Mission freelance
Data Engineer Semarchy ou stambia xDI Full remote ASAP
WorldWide People
Publiée le
Semarchy
6 mois
330-350 €
France
Data Engineer Semarchy ou stambia xDI Full remote ASAP Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDI , SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Mission freelance
101005/Data Analyst Nantes - langage Python et du PySpark.
WorldWide People
Publiée le
PySpark
Python
12 mois
400-500 €
Nantes, Pays de la Loire
Data Analyst Nantes - langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel. Contexte : Notre client, acteur du secteur du transport, recherche un data analyste senior pour une mission stratégique. Le profil devra collaborer avec le PPO Data pour cadrer des analyses et tableaux de bord à destination des métiers. Il sera force de proposition pour les plans d'analyses ad hoc et l'identification de problématiques métiers résolubles par la data. Responsabilités : - Comprendre et modéliser les problématiques métier et celles du pôle. - Définir avec justesse le périmètre des données nécessaires à la solution technique. - Concevoir et développer des modèles de machine learning. - Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables. - Créer des visualisations appropriées aux besoins cartographiques si nécessaire. - Estimer la charge à allouer aux différents traitements et actions techniques prévus. - Optimiser le modèle de donnée des projets data de l’équipe. - Développer des scripts Python optimisés. - Créer les tables ou vues nécessaires aux projets data de l’équipe. - Échanger avec les ops de la Team Data pour l'industrialisation de la collecte, des traitements, de la supervision et de la restitution des données. - Réaliser des plans d’analyse data. - Expliquer le sens des informations exploitables en termes pertinents pour les métiers. - Conceptualiser et développer autour d’une problématique métier. - Communiquer les informations en soulignant la valeur des actions. - Formaliser les résultats d’analyse et les présenter aux métiers commanditaires. - Être force de proposition sur la mise en place d’actions pertinentes en fonction des résultats d’analyses et des conclusions (préconisations). La mission nécessite : - Maîtrise du langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel.
Mission freelance
Chef de projet Transverse Data/Reporting/Integration Layer/Référentiels
CRYSTAL PLACEMENT
Publiée le
SAP
12 mois
400-790 €
Roissy-en-France, Île-de-France
Dans le cadre d’un programme stratégique de transformation Data, nous recherchons un Chef de Projet Data transverse afin de piloter des sujets critiques liés à la Data, au Reporting, aux flux d’intégration et aux référentiels. Mission Vous interviendrez sur un rôle transverse visant à coordonner et sécuriser la livraison des activités Data & Reporting, tout en pilotant les flux d’intégration et les dépendances entre plusieurs streams projet. Vous serez également responsable de l’orchestration d’une roadmap Data sur le chemin critique du programme, en collaboration avec les équipes métiers et IT. Responsabilités Pilotage des structures de données, référentiels et sujets MDM Coordination des activités Data & Reporting (prérequis, mapping, qualité des données) Priorisation des besoins Reporting avec les équipes métiers Suivi des flux d’intégration (API / Integration Layer / environnement Cloud) et gestion des risques associés Coordination transverse avec les différentes équipes projets Gestion des dépendances multi-streams Animation de la gouvernance projet et consolidation des plannings
Mission freelance
Data Engineer
Signe +
Publiée le
Database
ETL (Extract-transform-load)
SQL
2 ans
400-500 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients un Data Engineer. Contexte : Renforcement de l’équipe Data pour industrialiser et faire évoluer les environnements BI/ETL/Cloud (GCP BigQuery, Teradata, Informatica/IDMC, BO, Power BI) et soutenir les activités de delivery et de transformation. Mission & objectifs Concevoir, développer et industrialiser des pipelines de données robustes (batch/ELT). Garantir la qualité, la sécurité et la gouvernance des données (IAM, rôles, permissions). Moderniser les assets BI et modèles sémantiques (Power BI, Business Objects). Contribuer à l’ automatisation et à l’ infrastructure as code (Terraform). Accompagner les équipes Métiers/Tech dans l’usage des plateformes data (BigQuery, Teradata, Unix/Linux). Participer à la documentation et à la montée en compétence de l’équipe.
Mission freelance
Experienced DATA ENGINEER / TECH LEAD
Codezys
Publiée le
Data management
SQL
12 mois
Toulouse, Occitanie
Contexte de la mission Nous sommes à la recherche d’un(e) expert(e) en gestion de projets techniques, combinant compétences en ingénierie de données, SQL, ETL, et en outils de reporting, pour intervenir sur un secteur crucial lié à la gestion des données du cargo. La mission concerne principalement la manipulation, le chargement et la raffinage de données dans un datawarehouse dédié au domaine du cargo, en particulier pour les filiales d’Air France et KLM (AF&KL). Le(la) candidat(e) retenu(e) aura pour responsabilité d’assister l’équipe dans la maintenance des flux de données existants ainsi que dans le développement de nouvelles fonctionnalités. Il/elle participera activement aux projets en cours, apportant son expertise pour corriger d’éventuels dysfonctionnements et enrichir les solutions existantes. La mission nécessite une capacité à comprendre les enjeux métiers liés au transport de fret aérien et à traduire ces exigences en solutions techniques robustes et efficaces. L’équipe cible est composée de 8 professionnels, ce qui implique une forte collaboration et une communication fluide pour assurer la cohérence et la qualité du livrable dans un contexte dynamique et en constante évolution.
Offre d'emploi
Ingénieur Industrialisation Middleware / Ansible (H/F)
FIRST CONSEIL
Publiée le
Ansible
Automatisation
3 mois
40k-45k €
400-550 €
Orléans, Centre-Val de Loire
Ingénieur Industrialisation Middleware / Ansible (H/F) Contexte Dans le cadre du renforcement d’une équipe infrastructure au sein d’un grand groupe du secteur assurance, nous recherchons un(e) ingénieur(e) spécialisé(e) en industrialisation et automatisation des environnements middleware . La mission consiste à contribuer à l’industrialisation des plateformes middleware et à l’automatisation des opérations d’exploitation via Ansible Automation Platform . Missions Industrialisation et administration des serveurs d’applications (Tomcat, JBoss) Automatisation des tâches d’exploitation et d’administration via Ansible Mise en place et optimisation des processus d’industrialisation Contribution aux sujets de supervision et d’automatisation des plateformes Gestion et suivi des mécanismes de sauvegarde et de restauration Participation aux évolutions techniques du périmètre middleware Adaptation et maintenance des outils d’exploitation Rédaction et mise à jour de la documentation technique et procédures Environnement technique Technologies principales Ansible Automation Platform Tomcat JBoss EAP Linux / Windows Technologies complémentaires ElasticSearch IBM MQ API Gateway / solutions d’intégration Keycloak
Offre d'emploi
Data Analyst - Data Scientist
VISIAN
Publiée le
IA
Machine Learning
Natural Language Processing (NLP)
1 an
40k-45k €
400-670 €
Île-de-France, France
🎯 Mission principale Au sein d’une organisation spécialisée dans la data et les solutions de paiement, vous contribuez à la mise en place de projets décisionnels et Big Data en collaboration avec les équipes métiers et IT. 🧩 Responsabilités principales Contribuer à des projets décisionnels et Big Data. Participer à l’animation d’ateliers et de groupes de travail avec les utilisateurs et équipes techniques. Recueillir et analyser les besoins métiers. Concevoir et développer des reportings décisionnels : définition d’indicateurs statistiques, qualité et financiers Réaliser des analyses exploratoires de données. Rédiger la documentation projet : spécifications fonctionnelles et techniques cahiers de tests et de recette Participer aux phases de validation et de recette. Former et accompagner les utilisateurs finaux.
Offre d'emploi
Data Engineer - GCP / BigQuery (H-F)
K-Lagan
Publiée le
Big Data
BigQuery
Dataiku
1 an
45k-50k €
500-550 €
Niort, Nouvelle-Aquitaine
🚀 Chez K-LAGAN, nous parions sur vous ! Vous recherchez un projet data structurant , dans un environnement moderne et orienté cloud & analytics ? Vous souhaitez évoluer sur des sujets à forte valeur ajoutée au sein d’une Data Platform ambitieuse ? Alors cette opportunité pourrait vous intéresser 👇 🔍 Nous recrutons un·e Data Engineer (F/H) confirmé Pour rejoindre l’un de nos clients et contribuer activement au développement de sa Data Fabrik , dans un environnement innovant et orienté performance. 🎯 Vos missions Définir les pré-requis techniques nécessaires aux nouveaux cas d’usage data Participer à la conception et l’implémentation de nouveaux modèles de données Développer, optimiser et maintenir les pipelines de transformation Contribuer à l’évolution des outils et bonnes pratiques Data Engineering Garantir la qualité, la fiabilité et la performance des traitements Collaborer étroitement avec les équipes Data, BI et Métiers
Mission freelance
Product manager Référentiel & Data (5-10 ans)
ABSIS CONSEIL
Publiée le
Safe
3 ans
470-570 €
Maisons-Alfort, Île-de-France
Nous recherchons pour notre client en assurance un Product Manager intervenant sur deux périmètres clés : Référentiel Data / Infocentres Votre rôle s’inscrit dans un environnement SAFe , en interaction avec différentes équipes du train et potentiellement d’autres trains de la DSI. Vous contribuerez également à l’intégration de l’IA , notamment des IA agentiques , au service de la performance collective. Vos principales responsabilités Définir une vision produit claire, durable et alignée sur les besoins métier et utilisateurs. Construire et maintenir les roadmaps (Solution & PI). Gérer et prioriser le backlog produit (features, enablers). Collaborer avec les équipes métier, techniques et agiles pour garantir la cohérence des solutions . Piloter des projets transverses , tels que la migration DataStage. Recueillir et analyser les besoins clients pour guider les évolutions produits. Promouvoir et intégrer l’IA dans les pratiques opérationnelles. Compétences attenduesCompétences métier Maîtrise de la méthodologie SAFe (certification PM/PO souhaitée). Expérience en mise en œuvre de SI , conception fonctionnelle, animation d’ateliers, gestion de backlog. Connaissance de la modélisation des données . Pratique de l’ IA dans un contexte opérationnel. Compétences techniques Outils : Jira , Confluence , Suite Office. Bases de données & requêtage SQL . Tests : rédaction Gherkin , outils Selenium , Xray . Connaissance de l’environnement On Premise .
Mission freelance
DevOps Platform Engineer (H/F)
Freelance.com
Publiée le
Ansible
Argo CD
Docker
3 mois
400-550 €
Nanterre, Île-de-France
Dans le cadre d’un projet d’infrastructure, la direction technique recherche un.e DevOps Platform Engineer en prestation externe pour intégrer et administrer les offres au sein de la Platform Engineering , dans la tribe « Automatisation & Observabilité ». Vos missions principales seront : Accompagner les clients internes sur la livraison de leurs applications dans le cloud, notamment via l’offre XXX. Assurer le support technique en cas de bug ou anomalie sur les livraisons Installer, paramétrer et adapter les logiciels et progiciels aux exigences clients Concevoir, industrialiser et maintenir des pipelines CI/CD (GitHub Actions, Jenkins, ArgoCD) pour les offres IaaS/PaaS Automatiser le provisioning et la configuration des offres via Ansible et Terraform Installer et administrer les produits d’observabilité : Grafana, LOKI, Instana, ELK, Prometheus Intégrer et paramétrer le socle Platform Engineering : PostgreSQL, MongoDB, Kafka, Redis, HAproxy Préparer et suivre les mises en exploitation avec les équipes projets et production Rédiger les scénarios de test, benchmark et documentation technique Participer aux ateliers, comités et cérémonies projets, en contribuant à l’amélioration continue
Mission freelance
Développeur / DevOps (H/F)
Zenith Rh
Publiée le
Angular
Ansible
Java
6 mois
Gironde, France
Contexte: Dans le cadre de l’avancement d'un programme de grande ampleur nous recherchons un renfort technique pour l'un de nos clients pour sécuriser le delivery d'un projet critique. L’objectif est de soutenir l’équipe dans ses engagements opérationnels, notamment sur les phases de recette et d'industrialisation des plateformes. Environnement Technique: Langages : Java, Angular. Automation/Ops : Ansible, Jenkins (ou équivalent). Qualité/Sécurité : Sonar, Artemis, Git. Flux : Connaissances des brokers de flux et interfaces SAP appréciées.
Offre d'emploi
SRE Data et IA
VISIAN
Publiée le
DevOps
Site Reliability Engineering (SRE)
1 an
40k-45k €
400-650 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement afin de garantir la disponibilité, la performance et la résilience des services en production. Le/La SRE anticipe les risques, accompagne les équipes Dev/Prod et développe l'automatisation nécessaire pour assurer un fonctionnement optimal des plateformes, avec une spécificité sur la gestion des applications Data et IA. Responsabilités principales Suivi de la fiabilité, l'intégrité et la qualité de la plateforme en production Définition et suivi des SLO/SLI ; rétablissement du service en cas d'incident Participation aux projets dès le cadrage et anticipation des impacts sur la production Automatisation des opérations et réduction du travail manuel Mise en place d'un monitoring, de l'alerting et des dashboards pertinents Pilotage de l'obsolescence et contribution à la sécurité opérationnelle Contribution à la communauté SRE : bonnes pratiques, partage d'expérience Compétences clés Techniques : Connaissances des solutions Data & AI (ex : Airflow, Spark, Starburst, Domino AI …) Linux (RHEL), Docker, Kubernetes / OpenShift Automatisation & IaC : Git, Jenkins (CI/CD), Ansible, Terraform Scripting : Python, Shell, YAML Observabilité & Monitoring : ELK, SysDig, Dynatrace, Grafana Supervision / Scheduling : Control-M Cloud : IBM Cloud
Offre d'emploi
Tech Lead IAM - Data - Chiffrement (H/F)
5COM Consulting
Publiée le
Grafana
Keycloak
Red Hat
3 ans
Paris, France
Nous recherchons un(e) Tech Lead expérimenté(e) pour piloter la conception et l'évolution des solutions IAM, Data et Chiffrement au sein d'une équipe Engineering Platform. Vous serez le garant de la qualité, de la sécurité et de la conformité des solutions délivrées, tout en accompagnant la transformation technique et organisationnelle. Vos missions principales Management & Organisation Encadrer et faire monter en compétences les équipes (collaborateurs internes et prestataires) Définir la roadmap technique et prioriser les initiatives stratégiques Animer les rituels Agile (Scrum/Kanban) et participer aux comités de pilotage Assurer la coordination transverse avec les équipes projets, production et sécurité Promouvoir les bonnes pratiques DevSecOps et la culture d'amélioration continue Expertise Technique Maîtriser les protocoles d'authentification : SAML v2, OpenID Connect, OAuth2, WebAuthn, FIDO2 Concevoir et superviser l'intégration de solutions IAM dans des environnements Cloud (AWS, Azure, GCP) Définir les standards de chiffrement et de gestion des clés/certificats Orienter les développements en Java/Spring Boot/JEE selon les principes Clean Code Superviser l'optimisation des bases PostgreSQL et garantir la haute disponibilité (PCA/PRA) Contrôler la conformité des pipelines CI/CD (GitHub Actions, Jenkins) Mettre en place l'observabilité (Grafana, Prometheus, Loki)
Offre d'emploi
DATA ANALYSTE DATASCIENCE SENIOR
KEONI CONSULTING
Publiée le
Data analysis
Python
SQL
18 mois
40k-45k €
400-550 €
Gradignan, Nouvelle-Aquitaine
CONTEXTE Nous recherchons pour notre client un profil analyste DATA afin d'intégrer l'équipe Analyse de la Donnée. Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ . Fort d'une expérience DATA, le prestataire devra également montrer une appétance particulière dans le domaine fonctionnel MISSIONS - Mise en oeuvre de cas d'usage métiers par croisement de la donnée ( ciblage , analyse de donnée ou datascience ) - Développement et maintenance de produits DATA réutilisables - Publication des résultats d'analyse avec de la DATAVIZ - Respect des normes et bonnes pratiques au sein de l'équipe - Accompagnement et acculturation des équipes métiers ou autres" Définition des prestations attendues : Prestation d'analyse DATA et DATASCIENCE Préciser la technologie ou les certifications attendues : Python, Pyspark,SQL,Dataviz, Datascience " Livrables attendus "Programme DATA sous plateforme DATA Dataviz Présentation PPT de resultats d'etude Environnement technique - technologique "Plateforme : BIG DATA Hadoop (CLOUDERA) Langages : Python, PySPARK, SQL Restitution : PowerBI (dataset, dataflow, rapports) Compétences techniques attendues Connaissances en environnement BIG DATA ( python , Pyspark) Requêtage SQL Exposition des données par DATAVIZ Experience en analyse DATA et projet de DATAscience
Mission freelance
Data Engineer H/F
OUICODING
Publiée le
1 mois
420-580 €
Paris, Île-de-France
Mission : Concevoir, développer et opérer des pipelines data fiables et scalables, contribuer à l'industrialisation de la plateforme (standards, outillage, observabilité), et accompagner les équipes métiers et IT dans la mise en production et l'adoption. Responsabilités principales : -Ingestion & intégration : ingestion multi-sources (API, fichiers, bases de données), batch et/ou quasi temps-réel, gestion des erreurs et reprises. -Modélisation & transformations : implémentation des transformations (SQL et Python), optimisation des traitements, structuration des données (zones/étapes de transformation). -Industrialisation & CI/CD : contribution aux pipelines CI/CD (Azure DevOps/Git), packaging, déploiements, gestion des environnements. -Qualité, performance, observabilité : tests, contrôles de qualité, monitoring, alerting, analyse des incidents, amélioration continue. -Documentation & standards : documentation technique, bonnes pratiques de développement, revues de code, support à la montée en compétence. Stack / environnement (indicatif) : Azure (services data & automatisation), Snowflake, SQL, Python (dont Snowpark le cas échéant), Git, CI/CD, supervision (logs/metrics), outils de dataviz type Power BI en interface. CDC Prestation Data PDA 3 ETP v...
Mission freelance
Développeur java react aws
Cherry Pick
Publiée le
AWS Cloud
IA
Java
12 mois
500-550 €
Paris, France
Tâches principales : • Se positionner comme un coach des équipes tech en place en apportant une expertise en GenAI • Permettre la montée en compétence des équipes DSI en intégrant des outils d’IA (Copilot, Claude Code) pour accélérer le développement et la documentation • Développer et maintenir des applications performantes (Java/Spring Boot, Angular/React, Node.js, etc.) en intégrant des assistants IA (Copilot, Claude Code) • Automatiser les tâches répétitives (tests, CI/CD, monitoring) pour gagner en productivité • Travailler sur des architectures modernes : APIs, Cloud PaaS/IaaS (AWS, Terraform) • Garantir la qualité et la sécurité des développements en s’assurant que les projets pilotes respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI • Collaborer étroitement avec les équipes produit, design et architecture • Coacher des équipes qui créent des solutions en utilisant l’IA comme assistant de la conception technique au monitoring en production.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5073 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois