L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 891 résultats.
Offre d'emploi
Lead DevOps (CKAD)
Craftman data
Publiée le
Argo CD
Docker
FLUXCD
1 an
46k-60k €
500-700 €
Le Havre, Normandie
Rôle attendu Référent technique opérationnel de la squad DevOps, responsable de l’implémentation des pipelines CI/CD et de la démarche GitOps. Missions principales · Mise en œuvre et maintien des pipelines CI/CD · Déploiement d’une approche GitOps (ArgoCD / FluxCD) · Industrialisation des builds, tests, déploiements et rollbacks · Structuration des repositories GitOps · Supervision technique des ingénieurs DevOps Compétences requises · Jenkins, GitHub Actions, GitLab CI · ArgoCD, FluxCD · Docker (multi-stage builds) · Helm (charts, templating, hooks) · Vault, External Secrets · SonarQube, tests automatisés GitLab CI, Nexus, Root-Ceph
Mission freelance
Team Leader Data Engineering (H/F)
AGH CONSULTING
Publiée le
Apache Kafka
Confluence
Data management
6 mois
250-500 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Team Leader Data Engineering qui, sous la responsabilité du Head of Engineering Logistique, sera responsable de l'équipe Data Engineering dédiée à la plateforme C-Logistics. Véritable référent technique et manager opérationnel, vous agirez comme facilitateur, coach technique et moteur de la performance de l'équipe, en s'appuyant sur les principes du Lean management. Vous contribuerez à la mise en oeuvre d'une plateforme data performante, fiable et scalable, en étroite collaboration avec le Product Manager et les équipes métiers. À ce titre, vos principales responsabilités seront : -Piloter et accompagner l'équipe Data Engineering -Optimiser les processus de delivery et d'industrialisation des pipelines data -Identifier, analyser et résoudre les causes racines des incidents de production -Favoriser l'autonomie, la collaboration et la montée en compétence de l'équipe -Garantir la performance, la fiabilité et la scalabilité des solutions data -Assurer l'alignement des solutions techniques avec la vision produit -Contribuer à l'amélioration continue des pratiques techniques et organisationnelles Périmètre Le poste couvre : -La production et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics -Le partage de données avec les autres filiales du groupe -Le partage de données avec les clients B2B Environnement technique : Vous évoluerez dans un environnement data moderne comprenant : -Snowflake -SQL -Talend -DBT -Kafka -Python -Power BI Outils utilisés : -Jira -Confluence Équipe : Vous encadrerez une équipe composée de : 4 Data Engineers et 1 Lead Developer
Mission freelance
Data Engineer / Développeur PL/SQL (Exprert)
Keypeople Consulting
Publiée le
Oracle
PL/SQL
6 mois
400-450 €
Île-de-France, France
Nous cherchons : Data Engineer / Développeur PL/SQL Projet stratégique Data & IA Dans le cadre de la mise en place d’un DataHub IA pour une plateforme de consolidation de données à l’échelle Groupe, nous recherchons un Ingénieur Data disposant d’une solide expertise Oracle & PL/SQL . Vous interviendrez dans un environnement Data à forts volumes , avec des enjeux majeurs de performance , de fiabilité des calculs et d’ alimentation d’un moteur IA . Contexte La plateforme permet de collecter, consolider et traiter des données critiques servant au calcul d’indicateurs de pilotage stratégiques. Le DataHub joue un rôle central dans la préparation, la transformation et l’optimisation de ces données. Vos missions 🔹 Data & Performance Mise en place de la collecte de données Création et modélisation des modèles de données Optimisation des traitements et des performances Réalisation de tests de performance Analyse et résolution des problèmes de performance Oracle Revue et optimisation des calculs statistiques 🔹 Développement Développement de procédures PL/SQL (collecte, calcul, agrégation) Mise en place des processus de préparation de données en respectant les cas d’usage 🔹 Conception Conception de solutions basées sur les outils standards disponibles Rédaction des cas d’usage et des exigences fonctionnelles Rédaction des dossiers d’analyse et de conception Modélisation des différents modèles de données identifiés 🛠️ Compétences requises Excellente maîtrise Oracle Très bonne expertise PL/SQL Expérience en optimisation de performance base de données Conception et modélisation de données Contexte forts volumes de données Connaissances Exadata / ExaCC fortement appréciées Abglais courant. 💡Profil recherché : rigoureux, orienté performance, à l’aise dans des environnements
Mission freelance
Data Engineer - Azure / Databricks / Power BI
CHOURAK CONSULTING
Publiée le
Azure
Azure Data Factory
CI/CD
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir au sein d’un acteur structuré du secteur des services, sur une plateforme data moderne basée sur Microsoft Azure . 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de faire évoluer et industrialiser une plateforme analytique reposant sur Azure & Databricks , avec une forte interaction avec les équipes BI et métiers. ⚙️ Missions principales Concevoir et développer des pipelines de données sur Azure. Mettre en œuvre des traitements et transformations sur Databricks (PySpark / SQL) . Modéliser et structurer les données pour la consommation BI. Collaborer avec les équipes Power BI pour optimiser les datasets. Participer à l’industrialisation (CI/CD, bonnes pratiques, documentation). Contribuer à l’amélioration continue de l’architecture data.
Mission freelance
Développeur Big Data
Codezys
Publiée le
Big Data
Cloudera
Data Lake
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Le client, dans le cadre du développement et de la maintenance de sa plateforme Big Data, recherche un Développeur Big Data expérimenté (H/F) avec au moins 5 ans d’expérience en environnement Data. La mission se déroule au sein de l’équipe Big Data, chargée de l’alimentation, de l’évolution et de l’optimisation du Data Lake sous Cloudera Hadoop. L’objectif principal est de concevoir, faire évoluer et maintenir les traitements d’alimentation pour assurer la qualité, la performance et la maintenabilité des solutions. Le consultant intervient dans un contexte de production exigeant, avec de forts enjeux de fiabilité et de respect des délais. Missions principales : Développement & évolution du Data Lake : Gérer les évolutions des flux et des données à intégrer Faire évoluer les développements existants d’alimentation Maintenir les traitements d’ingestion et de transformation Concevoir des extractions de données pour répondre aux besoins métiers Stack technique : Cloudera Hadoop, Hive, Impala, Spark, Python, SQL, Shell, Linux, VBA, Jupyter Expertise technique & structuration : Rédaction des spécifications techniques Fourniture de requêtes SQL de référence Revue de code Structuration et pilotage via JIRA Documentation des processus et accompagnement des utilisateurs Encadrement de profils juniors (alternants, stagiaires) Performance & optimisation : Optimiser les traitements et requêtes Améliorer la performance et l’exploitabilité Contribuer à la maintenabilité globale Réaliser du reverse engineering dans une architecture héritée complexe Support & accompagnement : Assurer le support de niveau 2 Faire respecter les bonnes pratiques Communiquer clairement avec différents interlocuteurs (développeurs, utilisateurs, clients) Gouvernance & conformité : Veiller au respect des modèles de données Collaborer avec la Direction Technique et la Gouvernance de la Donnée pour faire évoluer les standards
Offre premium
Mission freelance
Développeur C confirmé (H/F)
FRISBEE PROFILING
Publiée le
C/C++
Dev-C
Développement
12 mois
400-450 €
Paris, France
Nous recherchons pour notre client un développeur C confirmé (H/F) - au moins 8/10 ans d’expérience. Vous évoluerez au sein d’une équipe de développement, sur les systèmes centraux, en charge de la programmation en langage C des projets de la roadmap. Principales tâches : - Assurer la maintenance corrective et évolutive des applications. - Ecrire et tester les parties ou parties des projets confiés. Mission de longue durée, démarrage ASAP, 2 jours de télétravail par semaine possibles une fois l'intégration validée.
Mission freelance
247838/Intégrateur d'exploitation / Ingé de Production Niort
WorldWide People
Publiée le
Dynatrace
Python
3 mois
300-310 €
Niort, Nouvelle-Aquitaine
Intégrateur d'exploitation / Ingé de Production Niort La société devra fournir les prestations suivantes: integration des applications SI Maafvie Outils : Jenkins Outil de build et d’intégration des composants Jira outil de ticketing Artifactory gestion d’artefacts SVN (Git) Gestionnaire de sources contenant les fichiers et applications à déployer XLD (Digital AI) Déploie les livrables « .dar » sur tous les environnements XLR Orchestrateur des process d’intégration Connaissances : langage shell python (java) Objectifs et livrables La société devra fournir les prestations suivantes: integration des applications SI Maafvie Outils : Jenkins Outil de build et d’intégration des composants Jira outil de ticketing Artifactory gestion d’artefacts SVN (Git) Gestionnaire de sources contenant les fichiers et applications à déployer XLD (Digital AI) Déploie les livrables « .dar » sur tous les environnements XLR Orchestrateur des process d’intégration Connaissances : langage shell python (java) Compétences demandées Compétences Niveau de compétence DYNATRACE Confirmé Full Stack Python Confirmé Script Shell Confirmé JENKINS Confirmé Bmc Control-m Confirmé
Mission freelance
Data Architect
Codezys
Publiée le
API
Azure
Azure Data Factory
12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Architect qui intégrera l'équipe stable dédiée à la Business Intelligence (BI) et à l'Analyse, avec un focus particulier sur le domaine Achats. Objectifs et livrables Ce que vous aurez à réaliser : En tant que Data Architect, vous veillerez à ce que les produits délivrés par votre équipe soient conformes à notre architecture cible globale. Pour soutenir cette fonction, nous cherchons un Data Architect spécialisé dans Azure, possédant une bonne compréhension des services disponibles dans la stack analytique Azure. Vous collaborerez avec le DPO, les Data Analysts, Data Engineers & Data Scientists de l'équipe, ainsi qu'avec la communauté d'architectes, afin de définir une architecture de qualité, apportant une valeur métier pertinente et assurant la maintenabilité à long terme. De plus, vous devrez faire preuve de compétences en leadership pour prendre en charge le rôle de lead technique et participer aux discussions avec les parties prenantes métier et l’architecture d’entreprise. Vous apportez un leadership technique, participez aux efforts de développement et représentez l’ensemble des capacités internes et externes de la plateforme. Vous êtes un membre actif de la guilde des architectes, chargé de superviser le processus de gestion des données et de fournir guidance et orientation aux équipes de développement. Vous êtes responsable de la conception et de la documentation des solutions dans votre domaine. Vous avez une expérience avec Databricks, ADLS Storage, SQL Database, Azure Data Factory (ADF) et Power BI. Vous avez l’expérience de la définition et de la gestion d’une architecture de données évolutive de bout en bout, en tenant compte de l’architecture d’entreprise et des normes du secteur. Vous maîtrisez le développement, la documentation et la maintenance de modèles de données logiques et physiques. Votre futur équipe Dans le cadre du domaine Achats, vous devrez relever de nombreux défis et aborder des sujets passionnants : Mettre en place des Data Products pour soutenir l’approche CAST (produits réutilisables partagés), conformément à notre stratégie. Contribuer à la définition de la feuille de route des initiatives BI & Analytics. Définir le Modèle de Données EDM et le mettre en œuvre en respectant les directives existantes. Participer à l’équipe de maintenance afin d’assurer la continuité des processus métier.
Mission freelance
POT8952 - Un Data Scientist Sénior sur Massy
Almatek
Publiée le
SQL
6 mois
100-390 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients,Un Data Scientist Sénior sur Massy. DESCRIPTION DE LA MISSION. Au sein du pôle Data Science Customer, vous rejoignez une feature team dédiée à l'un des piliers stratégiques de l’entreprise :le moteur de recherche de produit. Votre mission est de transformer l'intention d'achat de millions de clients en une expérience fluide, pertinente et performante. Vous serez le référent technique sur l'évolution de notre moteur de recherche, en passant d'une approche textuelle classique à une expérience de recherche sémantique et personnalisée. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. - En intervenant à toutes les étapes des projets, vous pourrez : - Stratégie Search : Collaborer avec les Product Managers pour définir la roadmap de pertinence (recherche textuelle, sémantique, hybride). - Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. - Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. -Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). -Expertise Elasticsearch : Optimiser les configurations, les analyseurs et les requêtes complexes pour garantir des performances temps réel à grande échelle. -Mentorat : Guider et élever le niveau technique des data scientists juniors sur les thématiques de NLP et de Search.? Compétences techniques clés : - Moteurs de recherche : Maîtrise avancée d'Elasticsearch, incluant le tuning de pertinence et la gestion des index. - Recherche Vectorielle : Expérience concrète dans l'utilisation de bases de données vectorielles et de modèles d'embedding. - Reranking : Solide expérience dans la conception de modèles de reranking (XGBoost/LightGBM pour le LTR, ou approches Deep Learning). - Stack Data : Maîtrise de Python, SQL et de l'écosystème GCP (BigQuery, Vertex AI). - Les petits plus - Expérience sur des problématiques de Personalized Search (intégration des signaux utilisateurs temps réel). - Contributions à des projets Open Source dans le domaine du Search ou du NLP. - Connaissance des problématiques de recherche multilingue ou de traitement des synonymes par IA. - Notre environnement technique - Python, SQL, Terraform, Docker, Gitlab, Jenkins, GCP (Cloud Composer / Airflow, Cloudrun, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage) Votre séniorité vous permet de naviguer entre la rigueur scientifique et les impératifs business du e-commerce. Vous savez vulgariser des concepts de "Neural Search" auprès d'interlocuteurs non-techniques tout en garantissant une qualité de code (Clean Code, CI/CD) irréprochable.
Mission freelance
Expert ITSM / EasyVista (Niort 79)
AKERWISE
Publiée le
EasyVista
1 an
Niort, Nouvelle-Aquitaine
Dans le cadre de la modernisation de ses outils de gestion des services IT, un grand groupe français du secteur assurantiel recherche un Expert ITSM spécialisé EasyVista pour accompagner le déploiement et l’évolution de sa plateforme de gestion des services. Contexte de la mission Vous interviendrez au sein d’un environnement Agile organisé en tribus et squads pluridisciplinaires (Product Owner, Agile Master, experts techniques…). La mission s’inscrit dans un programme de renouvellement des solutions ITSM , avec le déploiement de la plateforme EasyVista. Vous serez amené à intervenir sur l’ensemble des environnements techniques : production, pré-production et développement . Missions principales Administrer, maintenir et faire évoluer la solution EasyVista Garantir la cohérence et la qualité du paramétrage des outils ITSM Adapter les outils aux processus métiers et IT de l’entreprise Collaborer avec les équipes techniques et les collectifs Agile Accompagner les utilisateurs dans la prise en main et l’évolution des usages Assurer un support de niveau 3 sur les incidents et problèmes Réaliser une veille technologique et proposer des améliorations ou nouveaux usages
Mission freelance
Data Scientist
Orcan Intelligence
Publiée le
Large Language Model (LLM)
MLOps
Python
5 mois
500-650 €
Paris, France
Nous recherchons un/e Data Scientist pour rejoindre une équipe dynamique en Région parisienne (onsite 1x par semaine). Vous participerez à la conception et à la mise en œuvre de solutions de data science et d’apprentissage automatique à fort impact, contribuant directement à la création de valeur pour l’entreprise. Missions principales Concevoir et implémenter des solutions de data science de bout en bout pour résoudre des problématiques métier. Extraire, nettoyer et analyser de grands volumes de données, notamment à l’aide de Teradata Vantage et SQL . Construire et déployer des modèles de machine learning en Python . Exploiter des feature stores pour le développement et la mise en production des modèles. Explorer et appliquer des approches en IA générative (LLM, transformers) selon les cas d’usage. Définir des stratégies de data science alignées avec les objectifs métier et la feuille de route data de long terme. Communiquer méthodologies, résultats et recommandations à des publics variés (techniques et non techniques). Préparer et présenter des analyses et recommandations claires à différents niveaux (direction, opérationnel, technique). Collaborer avec les data engineers, analystes et experts métier pour intégrer les solutions en production. Contribuer à l’amélioration continue des outils, processus et bonnes pratiques en data science.
Offre d'emploi
Business Analyst DATA
OBJECTWARE
Publiée le
Audit
MySQL
1 an
Île-de-France, France
🎯 Contexte Dans le cadre d'un programme de transformation en profondeur de nos référentiels d’entreprise, nous recherchons un Business Analyst DATA Objectif : 👉 Rationaliser les données, moderniser les outils et refondre les processus de construction des produits d’assurance. Le programme comprend plusieurs chantiers : Refonte des modèles de données Refonte des processus internes Décommissionnement / nettoyage des systèmes obsolètes Audit des systèmes existants (documents, bases de données, interfaces techniques) Accompagnement des directions métier dans la digitalisation des processus : Refonte complète du processus de construction d’un produit d’assurance (actuellement basé sur Excel / Word) vers une application digitale transverse. 🎯 Mission Au sein d’une équipe programme (6 personnes, entre MOA et experts IT), le consultant interviendra sur : Animation d’ateliers et accompagnement des directions métier Analyse des référentiels et schémas de données Audit des systèmes existants Collaboration avec les équipes IT et directions métier Participation à la refonte des modèles de données Contribution à la mise en place d’un outil de gestion des processus d’administration des données Propositions de feuilles de route et recommandations 🔹 Compétences techniques Maîtrise SQL Capacité à naviguer dans des schémas de bases de données Connaissance API / ETL Compréhension des flux de données Expérience audit systèmes / analyse documentaire appréciée Si possible : sensibilité à la construction d’interfaces ou d’outillage maison Connaissance d’EBX appréciée mais non obligatoire. 🔹 Compétences fonctionnelles & comportementales Forte capacité de collaboration transverse À l’aise avec les directions métier Capacité à challenger et faire évoluer les pratiques Dynamique, moteur Capacité de synthèse pour la propositions de feuilles de route 🔹 Connaissance métier Connaissance du secteur assurance fortement appréciée Compréhension du cycle de vie produit assurance = vrai plus
Mission freelance
Data ingénieur Databricks & Power BI Full remote ASAP (4-5 ans d'exp Databricks)
WorldWide People
Publiée le
Databricks
6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP (4-5 ans d'exp Databricks) Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Mission freelance
Product manager Référentiel & Data (5-10 ans)
ABSIS CONSEIL
Publiée le
Safe
3 ans
470-570 €
Maisons-Alfort, Île-de-France
Nous recherchons pour notre client en assurance un Product Manager intervenant sur deux périmètres clés : Référentiel Data / Infocentres Votre rôle s’inscrit dans un environnement SAFe , en interaction avec différentes équipes du train et potentiellement d’autres trains de la DSI. Vous contribuerez également à l’intégration de l’IA , notamment des IA agentiques , au service de la performance collective. Vos principales responsabilités Définir une vision produit claire, durable et alignée sur les besoins métier et utilisateurs. Construire et maintenir les roadmaps (Solution & PI). Gérer et prioriser le backlog produit (features, enablers). Collaborer avec les équipes métier, techniques et agiles pour garantir la cohérence des solutions . Piloter des projets transverses , tels que la migration DataStage. Recueillir et analyser les besoins clients pour guider les évolutions produits. Promouvoir et intégrer l’IA dans les pratiques opérationnelles. Compétences attenduesCompétences métier Maîtrise de la méthodologie SAFe (certification PM/PO souhaitée). Expérience en mise en œuvre de SI , conception fonctionnelle, animation d’ateliers, gestion de backlog. Connaissance de la modélisation des données . Pratique de l’ IA dans un contexte opérationnel. Compétences techniques Outils : Jira , Confluence , Suite Office. Bases de données & requêtage SQL . Tests : rédaction Gherkin , outils Selenium , Xray . Connaissance de l’environnement On Premise .
Mission freelance
Release Train Engineer (RTE) – Mission à Niort H/F
INFOTEL CONSEIL
Publiée le
Méthode Agile
6 mois
450-550 €
Niort, Nouvelle-Aquitaine
Infotel recherche pour l’un de ses clients du secteur assurance un Release Train Engineer (RTE) afin d’accompagner un programme Agile dans le domaine de la Santé Individuelle . Vos missions : Organiser et animer les rituels de coordination entre plusieurs équipes Agile. Assurer la bonne synchronisation des équipes travaillant sur un même produit. Identifier et lever les blocages pouvant impacter l’avancement du programme. Suivre l’avancement global et remonter les risques ou points d’attention. Faciliter la communication entre équipes, Product Owners et parties prenantes. Veiller à la bonne application du cadre Agile et à la livraison régulière de valeur. Contribuer à l’amélioration continue des pratiques et de la collaboration entre équipe
Offre d'emploi
Business Analyst Data
VISIAN
Publiée le
Agile Scrum
Business Analyst
MySQL
1 an
Paris, France
Descriptif du poste Au sein d'une équipe data qui a pour mission de définir la stratégie et la feuille de route Data du groupe, de développer et gérer l'écosystème de partenaires Data, de définir et déployer la gouvernance des données, de définir et piloter le plan d'acculturation Data, et d'accompagner le déploiement des produits et services Data. Le Global Data Office a en charge le développement et le maintien des données de référence du groupe, et a lancé un programme de refonte de la plateforme de Master Data Management
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2891 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois