L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 848 résultats.
Mission freelance
Service Delivery Manager – Plateforme DATA / IA
KatchMe Consulting
Publiée le
SLA
6 mois
500-600 €
Issy-les-Moulineaux, Île-de-France
Le Service Delivery Manager intervient au sein d’une direction informatique en charge des infrastructures, de la production et de la supervision des systèmes d’information. Dans un contexte de transformation numérique et d’intégration d’équipes techniques issues de différentes entités, le poste vise à garantir la qualité, la continuité et la performance des services IT fournis aux métiers. Le Service Delivery Manager joue un rôle central dans la coordination entre les équipes métiers, les équipes techniques et la gouvernance des projets. Il veille à l’alignement des services informatiques avec les besoins opérationnels et s’assure du respect des engagements de service. Dans ce cadre, ses principales responsabilités sont : Garantir le respect des engagements opérationnels (OLA) et veiller au respect des engagements de service (SLA) . Participer à la gestion des incidents majeurs et des crises informatiques . Organiser et piloter les retours d’expérience (REX) suite aux incidents majeurs et assurer le suivi des plans d’actions. Assurer la gestion des problèmes selon les bonnes pratiques ITIL , afin d’identifier les causes racines et réduire la récurrence des incidents. Assurer le suivi des indicateurs de performance et produire les reportings associés. Représenter l’équipe dans les instances de pilotage de la qualité de service lorsque nécessaire. Contribuer au maintien en conditions opérationnelles du système d’information . Participer à la validation et à l’évolution du catalogue de services . Être responsable de la documentation opérationnelle relative à la gestion des incidents. Contribuer à l’ amélioration continue des processus RUN , notamment sur les processus de gestion des incidents, des problèmes et des demandes. Dans son rôle opérationnel, le Service Delivery Manager contribue également à : Définir et formaliser la convention de services de la plateforme. Garantir la qualité et la disponibilité des services IT . Maintenir un haut niveau de satisfaction des utilisateurs et des métiers . Optimiser l’utilisation des ressources techniques et organisationnelles . Favoriser une démarche d’amélioration continue basée sur les retours d’expérience et les indicateurs de performance.
Offre d'emploi
Data Scientist MLOps (H/F)
STORM GROUP
Publiée le
Apache Airflow
BigQuery
MLOps
3 ans
45k-55k €
400-500 €
Île-de-France, France
Missions : • contribution aux projets décisionnels - Big data • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs
Offre d'emploi
Chef de Projet IT – Data & MDM (H/F) - Marseille
VISIAN
Publiée le
Master Data Management (MDM)
3 ans
40k-45k €
400-450 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Vous intervenez au sein d’un programme international dédié à la gestion des données de référence (Master Data Management), dans un environnement IT complexe et structurant pour les activités métiers. Le projet s’inscrit dans une démarche d’amélioration de la qualité des données, notamment via l’intégration de sources externes certifiées, dans un contexte de conformité réglementaire forte. L’environnement est international, avec des équipes distribuées et une communication majoritairement en anglais. La méthodologie projet est principalement en cycle en V, avec des adaptations agiles. Missions Piloter un projet IT de bout en bout (cadrage → déploiement → clôture) Coordonner une équipe projet internationale de grande envergure (>50 contributeurs) Assurer l’alignement entre les équipes métiers, techniques et les parties prenantes Suivre le planning, le budget, les risques, les dépendances et les indicateurs projet Garantir la qualité des livrables et le respect des engagements (coût / délai / qualité) Piloter les activités de migration de données et assurer leur intégrité et traçabilité Superviser les aspects techniques liés à l’infrastructure (environnements hybrides) Produire les livrables projet (reporting, comités, documentation, plans d’action) Gérer les risques, incidents et plans de mitigation avec escalade adaptée Assurer la communication projet dans un contexte international (anglais courant) Conduire le changement et organiser le transfert de connaissances vers les équipes Garantir la conformité aux standards IT, sécurité et gouvernance des données Environnement technique Data Management / Master Data Management (MDM) Data Migration & Data Quality Architectures hybrides (Cloud / On-Premise) Outils de gestion de projet (type Jira, MS Project, etc.) Environnements internationaux multi-systèmes
Offre premium
Mission freelance
Ingénieur Cloud AWS - Data & IA
TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas
36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Mission freelance
Dbt Technical Expert – Data Engineer Senior
Signe +
Publiée le
DBT
12 mois
400-630 €
Paris, France
Cette mission s’inscrit dans une initiative de modernisation et de standardisation des processus de transformation de données au sein d’un grand groupe international. L’objectif est d’industrialiser une plateforme dbt (data build tool) afin de garantir : Des pipelines ELT robustes, scalables et maintenables L’application de standards homogènes à l’échelle groupe Un accompagnement technique de haut niveau auprès des équipes projets Le profil recherché est un Data Engineer expert dbt, capable d’intervenir sur la définition des standards, la mise en œuvre technique, l’optimisation, la gouvernance et la formation. Informations contractuelles Titre de la mission : Dbt Technical Expert Démarrage : ASAP Fin de mission : 31/12/2026 Localisation : Vélizy-Villacoublay (78)
Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy
Mon Consultant Indépendant
Publiée le
Data analysis
IA
1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
Offre d'emploi
Data Scientist
ANDEMA
Publiée le
Databricks
PySpark
Python
12 mois
55k-65k €
400-500 €
Lille, Hauts-de-France
Contexte Entreprise en forte croissance , avec un volume d’activité soutenu et de nombreux projets data en cours et à venir. Dans ce cadre, nous recherchons un(e) Data Scientist pour compléter l’équipe existante et contribuer activement au développement de nouveaux sujets stratégiques. Modalité : Pré-embauche (PE) Possibilité d’intervenir en freelance pendant la période de pré-embauche , avec une volonté forte d’internalisation à l’issue du process. Votre mission Vous rejoindrez une équipe data dynamique avec pour objectif : Prendre en main de nombreux sujets variés Construire, tester, industrialiser des modèles et analyses Travailler en étroite collaboration avec les équipes métiers Participer à la structuration et à la montée en maturité data de l’entreprise Contribuer à des problématiques de mesure de performance, campagnes marketing, retail média , etc. Ici, pas de silo : vous serez exposé(e) à des problématiques multiples et stimulantes. Nous recherchons donc des candidats passionnés et polyvalents. Stack technique Python (obligatoire) PySpark (obligatoire) Databricks Environnements data modernes orientés cloud Pourquoi nous rejoindre ? - Entreprise en forte croissance - Projets variés et concrets - Forte exposition business - Possibilité d’évolution rapide - Environnement agile et stimulant Si vous aimez la diversité des sujets, l’impact business et les environnements en croissance, cette opportunité est faite pour vous
Mission freelance
Data Architecte AWS / Iceberg
Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API
12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Mission freelance
Développement JAHIA / JAVA / REACT
Codezys
Publiée le
Groovy
Jahia
Java
12 mois
320-400 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Nous cherchons à anticiper la transition d’un référencement naturel traditionnel, principalement optimisé pour les moteurs de recherche (SEO), afin de répondre aux nouvelles attentes des modèles de langage (LLM) via un mode de construction de contenu innovant (GEO). Actuellement, notre architecture repose sur une version cloud de Jahia 8.2. Nous nécessitons une expertise full-stack (Jahia/Java/React), avec une forte affinité pour le back-end, afin d’assurer une autonomie complète dans la gestion et l’évolution de Jahia. Objectifs et livrables Anticiper et ajuster notre stratégie de contenu pour accompagner la transition du référencement SEO vers GEO. Réaliser une mise à jour majeure du framework Jahia, en passant de SpringBoot à l’architecture OSGI. Moderniser et optimiser les composants Jahia en collaboration avec l’équipe technique. Intégrer de nouvelles landing pages standardisées pour améliorer la cohérence et la performance du contenu.
Offre d'emploi
Tech Lead Full-Stack / Data & Cloud (F/H)
CELAD
Publiée le
45k-51k €
Toulouse, Occitanie
Tech Lead Full-Stack / Data & Cloud (F/H) A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Toulouse Vous aimez autant coder que prendre de la hauteur sur l’architecture et la qualité logicielle ? Vous êtes à l’aise pour accompagner une équipe technique tout en mettant en place des stratégies de tests solides et durables ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e un.e Tech Lead Full-Stack pour intervenir chez un de nos clients, dans le secteur développement applicatif, data et cloud. Contexte : Vous rejoignez une équipe de développement qui conçoit et fait évoluer des applications à forte composante data , dans un environnement technologique moderne combinant Python, React et AWS . Votre rôle sera central : porter la vision technique , accompagner les développeurs et veiller à la qualité globale des livrables , notamment à travers la mise en place de stratégies de tests efficaces . L’objectif : construire des solutions robustes, performantes et maintenables dans le temps . Voici un aperçu détaillé de vos missions : Définir et porter la vision technique du produit Encadrer techniquement l’équipe de développement (code review, bonnes pratiques, pair programming) Participer activement au développement full-stack (Python / React) Contribuer aux choix d’ architecture applicative et data Optimiser les performances côté back-end et base de données Concevoir et faire évoluer les architectures cloud sur AWS Définir et structurer une stratégie de tests complète (tests unitaires, intégration, automatisation…) Mettre en place des pratiques favorisant la qualité et la fiabilité du code Participer aux choix technologiques et à l’évolution de la roadmap technique
Mission freelance
Lead Développeur Fullstack - Niort
CAT-AMANIA
Publiée le
Angular
Java
Javascript
1 an
Niort, Nouvelle-Aquitaine
Nous recherchons un Lead Développeur Full Stack (H/F) afin d’accompagner les équipes de développement dans un environnement Agile . Vous interviendrez sur des projets stratégiques avec un rôle à la fois technique et de leadership auprès des équipes. Vos missions Au sein d’une équipe fonctionnant en méthodologie Agile (Scrum / Kanban) , vous aurez pour principales responsabilités : Participer à la conception technique et à l’architecture des applications Encadrer et accompagner les équipes de développement Garantir la qualité du code et le respect des bonnes pratiques de développement Participer activement au développement des fonctionnalités Réaliser les revues de code et accompagner la montée en compétences des développeurs Contribuer aux choix technologiques et aux évolutions d’architecture Collaborer avec les Product Owners, Scrum Masters et équipes métiers Participer à l’amélioration continue des pratiques de développement (qualité, performance, sécurité) Assurer la maintenance et l’évolution des applications Environnement technique Stack principale : Backend : Java Frontend : React ou Angular Outils et pratiques associés : Architecture API / microservices Git / GitLab CI/CD (Jenkins ou équivalent) Docker / environnements conteneurisés Tests unitaires et d’intégration Jira / outils de gestion Agile
Mission freelance
Data ingénieur Databricks & Power BI Full remote ASAP
WorldWide People
Publiée le
Databricks
6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Offre d'emploi
Chef de projet Data MDM (industrie)
Amontech
Publiée le
BigQuery
Looker Studio
Master Data Management (MDM)
40k-45k €
Aubervilliers, Île-de-France
📌 Contexte Dans le cadre d’une mission au sein du Pôle DATA (secteur industriel) nous recherchons un/une Chef(fe) de projet Master Data pour intervenir sur la gestion et l’amélioration du référentiel d’entreprise. Vous intégrerez une équipe dédiée à la gouvernance des données , travaillant sur une solution interne et des projets d’amélioration continue de la qualité des données et des workflows métiers. 🎯 Missions En tant que Chef(fe) de projet Master Data, vous interviendrez à la fois sur la gestion du référentiel, l’amélioration de la qualité des données et la conduite de projets d’évolution. 🔧 Gestion et administration du référentiel (50%) Traiter les demandes utilisateurs dans les délais convenus Accompagner et animer le réseau des référents pour l’appropriation des outils et workflows Maintenir la cohérence et l’intégrité du référentiel de données ⚙️ Amélioration de la qualité des données (30%) Réaliser des analyses croisées multi-sources pour identifier anomalies et incohérences Définir et prioriser les plans d’action qualité en collaboration avec les métiers Évaluer les impacts sur les systèmes consommateurs et coordonner les actions correctives 🔧 Conduite de projets d’amélioration continue (20%) Recueillir et analyser les besoins d’évolution exprimés par le business Proposer des solutions innovantes et les soumettre à validation hiérarchique Piloter les projets validés de bout en bout (cadrage, spécification, réalisation, déploiement)
Mission freelance
Product Owner CRM – Data Client BtoB & Prospection
Deodis
Publiée le
Salesforce
1 an
550-580 €
Île-de-France, France
Le Product Owner CRM – Data Client BtoB & Prospection chez TF1 Publicité est responsable de la gestion et de l’évolution du référentiel client et des processus de prospection au sein du CRM Salesforce. Intégré à la Direction des Technologies, il définit la vision produit, pilote la roadmap et coordonne les développements afin d’améliorer les outils utilisés par les équipes commerciales. En collaboration avec les métiers et les équipes techniques, il recueille les besoins, priorise le backlog, garantit la cohérence avec les autres systèmes du SI et accompagne le déploiement des nouvelles fonctionnalités pour optimiser la gestion de la data client B2B et soutenir la performance commerciale.
Offre d'emploi
Data Engineer (DBT / Snowflake / Airflow / Python)
bdevit
Publiée le
Apache Airflow
AWS Cloud
CI/CD
36 mois
40k-50k €
450-500 €
Issy-les-Moulineaux, Île-de-France
Contexte : Dans un environnement data à forts enjeux de performance, de fiabilité et de conformité, vous intégrerez une équipe data encadrée par un Tech Lead Data. Vous interviendrez sur la conception, l’industrialisation et l’exploitation de pipelines de données au sein d’une plateforme cloud moderne. Missions Principales : En tant que Data Engineer , vous serez en charge de : Concevoir et développer des pipelines de données robustes et scalables (ELT) ; Intégrer les données issues de sources multiples dans Snowflake ; Développer et maintenir les modèles de données analytiques avec DBT (datamarts métiers, tests, documentation) ; Orchestrer les traitements data via Apache Airflow (DAGs, scheduling, dépendances) ; Optimiser les performances, la qualité et les coûts du Data Warehouse ; Industrialiser les flux data (automatisation, CI/CD, monitoring, reprise sur incident) ; Participer à l’amélioration continue de la plateforme data et être force de proposition sur les choix techniques.
Mission freelance
Ingénieur DevOps (Middleware/ Production)
OPTIPARK
Publiée le
Ansible
Apache
Apache Tomcat
1 an
100-440 €
Niort, Nouvelle-Aquitaine
Contexte de la mission : Pour un de nos client qui opère dans le secteur d’assurance à Niort, nous recherchons une prestation d’Ingénierie devOps, pour accompagner les équipes du département “Solutions IT”. Intégration aux équipes de développement, et en lien direct avec l’équipe “System Team” du département “Service Delivery” Responsabilités · Participer aux cérémonies des équipes : PI Planning, chiffrages. · Participer à la Conception et au déploiement des infrastructures de développement et d’intégration · Comprendre les besoins des parties prenantes et les expliquer aux développeurs · Travailler à l'automatisation et à l'amélioration des processus de développement et de déploiement · Identifier les problèmes techniques et développer des mises à jour et des correctifs · Collaborer avec les développeurs et les ingénieurs pour garantir le respect des processus établis · Apporter votre expertise aux équipes de développement / études Intégrer les traitements dans les outils de supervision et d’ordonnancement en veillant au respect des standards de production · Réaliser la documentation liée au bon fonctionnement des applications (procédures d'exploitation…) · Contribuer au traitement les incidents jusqu’à leur résolution complète et la réalisation des interventions techniques associées · Optimiser, fiabiliser, sécuriser les traitements existants et leurs performances Contexte Technique : · Serveurs applicatifs : JBoss, Tomcat, Zend, Nginx, Apache · Provisioning : ansible · Supervision : Dynatrace · CI/CD : jenkins, svn, gitlab, release/deploy, jira, sonarqube, openshift · Ordonnanceur : controlM · SGBD : Oracle (RAC et exaCC), Postgre · OS : linux RHEL, Windows Server · ITSM : EasyVista · Agile : JIRA Software · Développement : Java, React Informations complémentaires : · Mission localisée sur le site de Niort. · Présentiel minimum 3 jours / semaine après un onboarding d'u mois en full présentiel.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2848 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois