Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 888 résultats.
CDI
Freelance

Offre d'emploi
Ingénieur de production/DevOps - NANTES (H/F)

Publiée le
Ansible
Cloud
Dynatrace

3 ans
40k-51k €
400-540 €
Nantes, Pays de la Loire
Télétravail partiel
Pour notre client dans le secteur bancaire , vous intégrez une équipe de production en charge du MCO et de l’industrialisation d’environnements critiques, dans un contexte hybride mêlant Cloud privé (OpenStack) et systèmes legacy. Vous contribuez activement à la construction des environnements, à l’automatisation, et au développement de la chaîne DevOps (CI/CD, GitOps). Compétences techniques indispensables : Build / Run Prise en charge du Build & Run Construction et configuration d’environnements sur OpenStack Gestion des demandes de flux (réseau, firewall, proxy) Mise en production via pipelines CI DevOps Maîtrise de GitLab CI/CD Environnements Kubernetes GitOps via Argo CD Automatisation Ansible ( playbooks ) Connaissance des architectures Cloud & microservices Run / Exploitation Traitement d’incidents N2/N3 Suivi, analyse et résolution Supervision & Observabilité : Zabbix Dynatrace Analyse performance et optimisation Cloud Forte expérience en Cloud privé Contexte legacy + modernisation Cloud Missions principales : Build Construction d’environnements OpenStack Industrialisation CI/CD (GitLab) Automatisation via Ansible Contribution aux projets GitOps (Argo CD) Run Gestion incidents N2/N3 Suivi MCO, supervision, diagnostic Amélioration continue & fiabilisation des pipelines Projets Modernisation des environnements legacy vers le Cloud Participation aux cérémonies Agile (daily, rétro, planning)
Freelance
CDI

Offre d'emploi
Data Engineer (H/F) - Lyon

Publiée le
Apache Airflow
MLOps
PySpark

1 an
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Notre client, acteur majeur du secteur [énergie / distribution], recherche un.e Data Engineer confirmé.e pour renforcer ses équipes Data. Le poste combine Data Engineering et MLOps , avec une implication sur l’ensemble du cycle de vie des pipelines de données et modèles ML. Missions principales : Data Engineering (intervention sur 2 projets) Concevoir, développer et maintenir les pipelines de données pour 2 applications disctinctes. Assurer l’ingestion, la transformation et le stockage de données à grande échelle. Optimiser les traitements pour garantir des performances adaptées aux volumes traités. Mettre en place des mécanismes de qualité des données (contrôles, alertes, monitoring). Collaborer avec le pôle Développement pour définir les interfaces de données (API, bases de données). Documenter les flux de données et maintenir le catalogue de données. MLOps (Intervention sur 1 des 2 projets) Industrialiser l’entraînement des modèles ML pour l’optimisation du dimensionnement des groupes électrogènes. Déployer des pipelines CI/CD pour les modèles ML (versioning des données et modèles, automatisation de l’entraînement). Assurer le monitoring des performances des modèles en production (drift detection, métriques de performance). Collaborer avec les Data Scientists pour faciliter le passage des modèles du développement à la production.
Freelance

Mission freelance
Business Analyst Senior (H/F) - Expertise DATA & Pilotage Commercial

Publiée le
Data analysis
Test fonctionnel

6 mois
400-520 €
Île-de-France, France
Télétravail partiel
Pour le compte d'un acteur majeur du secteur bancaire, nous recherchons un Business Analyst confirmé (6-9 ans d'expérience) pour rejoindre un projet stratégique de structuration des données commerciales. Vous serez le point de contact central entre les directions Métier (Pilotage Commercial) et les équipes techniques (DSI). Votre expertise en analyse de données sera déterminante pour garantir la fiabilité et la pertinence des solutions livrées. Vos missions principales : Analyser, challenger et formaliser les besoins des utilisateurs Métier liés au pilotage de la performance commerciale. Concevoir les solutions fonctionnelles et rédiger les spécifications détaillées pour la DSI. Prendre en charge la stratégie de recette et son exécution : préparation des jeux de données, validation des cas de tests, et analyse précise des résultats. Identifier et sécuriser les impacts du projet sur les applications existantes de reporting et de pilotage. Garantir la qualité et la cohérence des données tout au long du projet.
Freelance

Mission freelance
Data Analyste Confirmé Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos

Publiée le
Microsoft Power BI
SQL

12 mois
390-400 £GB
Mer, Centre-Val de Loire
Télétravail partiel
Data Analyste Confirmé pour une mission sur MER. Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. Contexte : Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. Missions principales : Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. Compétences requises : - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). Connaissances métier : Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. La mission est sur Mer (proche d'Orleans) - Mission sur le long terme
Freelance

Mission freelance
Consultant Fonctionnel Senior Oracle ERP Cloud Finance (O2C / AR)

Publiée le
Oracle ERP Cloud

6 mois
Hauts-de-France, France
Télétravail partiel
📢 Appel d’Offre – Consultant Fonctionnel Senior Oracle ERP Cloud Finance (O2C / AR) Dans le cadre d’un déploiement international du core model Finance sur Oracle ERP Cloud , notre client recherche un(e) Consultant(e) Fonctionnel(le) Senior Oracle Finance , avec une expertise forte sur le périmètre O2C / Comptabilité Clients (AR) . 🎯 Objectif de la mission Renforcer l’équipe projet en garantissant le paramétrage , la cohérence transverse et la couverture des besoins métiers sur la solution Oracle ERP Cloud Finance, dans un contexte multi-pays . 🧩 Missions principales Piloter et/ou réaliser le paramétrage Oracle ERP Cloud – Finance (directement ou via intégrateur groupe). Collaborer avec un intégrateur local pour s’assurer que les spécificités pays sont correctement prises en compte, sans impact sur le core model. Rédiger les spécifications fonctionnelles (dossiers de spécifications) selon les besoins métiers. Garantir la cohérence fonctionnelle transverse entre les pays déployés et le core model. Contribuer aux échanges métiers / IT pour sécuriser les choix fonctionnels et l’alignement solution. 🌍 Langues Anglais professionnel (impératif)
Freelance
CDI

Offre d'emploi
Business Analyst Data & IA

Publiée le
Business Analysis
Dataiku
IA

1 an
40k-45k €
400-620 €
Paris, France
Télétravail partiel
Contexte et enjeux Une organisation de solutions de crédit-bail se trouve à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet de refonte d'une application de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers, des données et des cas d'usage IA Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Comprendre les processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Évaluation et qualification des sources de données disponibles afin d'identifier les données pertinentes et fiables. Vérifier leur qualité, cohérence, disponibilité et adéquation avec les besoins métiers. Collaboration étroite avec le Data Office pour : Valider les jeux de données existants Identifier les manques Contribuer à la modélisation des données non encore prises en charge par les systèmes existants Assurer l'alignement avec les standards de gouvernance, traçabilité et qualité Définition et formalisation avec les Data Engineers et les MLOps des besoins fonctionnels en matière de données et d'algorithmes (features, KPIs, modèles IA, reporting), en veillant à leur faisabilité technique et leur pertinence métier. Spécification fonctionnelle et data design Rédaction de spécifications fonctionnelles détaillées, structurées autour de : User stories data Règles de gestion Dictionnaires de données Mappings sources-cibles Schémas conceptuels / logiques orientés data & IA Description des flux de données end-to-end : collecte, transformation, stockage, mise à disposition, consommation. Assurer une vision claire et documentée du cycle de vie de la donnée. Contribution au design des pipelines de données, en coordination avec les équipes techniques (Data Engineers, Data Scientists), pour assurer la faisabilité, la robustesse et la performance des solutions. Interface entre les équipes métier, Data Office et équipes techniques IA / Data / BI Intermédiaire entre le métier, le Data Office et les équipes IT / Data / IA, en garantissant : Une compréhension commune des exigences La conformité entre les besoins fonctionnels et les solutions techniques proposées La bonne disponibilité des jeux de données nécessaires au projet Accompagnement des utilisateurs métiers dans la compréhension et l'appropriation des données fiables et des solutions analytiques ou IA. Suivi de la mise en œuvre des solutions IA & Data Participation au suivi des développements (étapes clés, points d'avancement) avec un rôle d'assurance fonctionnelle. Validation fonctionnelle des livrables data et IA : Vérification de la qualité des données Contrôle de la complétude des jeux de données Revue des KPI, Dashboard PowerBI, notebooks Dataiku, features IA, etc. Recueil et intégration des retours métiers afin d'ajuster les modèles, indicateurs ou jeux de données. Documentation et gouvernance Production et mise à jour de la documentation fonctionnelle et data. Contribution active aux démarches de gouvernance de la donnée pilotées par le Data Office : qualité, conformité, traçabilité, sécurité.
Freelance
CDI

Offre d'emploi
Business Analyst IA générative et de la RAG - IDF - Plus de 9 ans

Publiée le
BI
Méthode Agile

3 ans
50k-65k €
500-550 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : 💡 Contexte /Objectifs : Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du client. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein du Lab Innovation, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). 🤝 Les missions sont : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets • Suivre la production afin de garantir la satisfaction du client.
CDI
Freelance

Offre d'emploi
Consultant Oracle EBS

Publiée le
Oracle ERP Cloud

2 ans
40k-81k €
400-700 €
Guyancourt, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un consultant Oracle EBS La mission consiste : - Cadrage de besoins/projets, - Recueil et analyse des besoins utilisateurs, Rédaction des spécifications fonctionnelles, - Paramétrage d’environnements et/ou de fonctionnalités, - Suivi ou réalisation des développements, - Organisation des recettes et tests associés, - Organisation de l’accompagnement utilisateur et de la conduite du changement . En marge des activités de projets/évolutions, il sera également demandé un support aux activités opérationnelles courantes de production (support utilisateur, suivi des activités de maintenance,...)
Freelance
CDI

Offre d'emploi
Techlead – Backend – Salesforce Commerce Cloud sur la Défense

Publiée le
CSS
HTML
Java

3 mois
La Défense, Île-de-France
Je recherche pour un de mes clients un Tech Lead Backend – Salesforce Commerce Cloud sur la Défense Objectifs et livrables Rattaché(e) au Backend Engineering Manager, le profil sera en charge des sites e-commerce Europe (actuellement sur la solution Salesforce B2C Commerce Cloud) Les principales missions?: Vous serez intégré(e) au sein d’une équipe de 10 personnes composée d’un Product Manager, d’un SA (System Architect), d’une Scrum Master, deux Tech Lead et cinq développeurs Être le référent?technique des applications/sites e-commerce / backend, expert de leur fonctionnement et de leur intégration au sein de l’écosystème technique. Être responsable de concevoir, évaluer, chiffrer et??valider des solutions technico-fonctionnelles répondant aux besoins émis par Les équipes Produit. Être responsable du design technique des applications/fonctionnalités développées (i.e. contrats d'interfaces), et de leur évolution au sein de l’écosystème digital. Être force de proposition pour innover et simplifier les architectures en place et alerter des risques et difficultés rencontrées sur la mise en place de nouvelles fonctionnalités. Responsable de la roadmap technique des applications de son périmètre?: définir, valoriser, promouvoir les sujets techniques à prioriser dans les sprints pour supporter les enhancements fonctionnels Comprendre les besoins exprimés par les PO et le traduire en solution technique. Éclairer les PO sur les avantages et risques éventuels des solutions envisagées, leurs alternatives, et les implications en termes de coûts et de planning Faire le lien entre les différents partenaires techniques impliqués sur les projets (éditeur, intégrateur, équipes techniques internes qui gravitent autour des sites e-commerce) Accompagner les équipes?de dev dans les phases d’estimations/chiffrages / cadrage technique Accompagner les équipes fonctionnelles tout au long de l'implémentation et assurer auprès d’eux un suivi sur leur mise en œuvre. Assurer une veille technologique sur son application et promouvoir des solutions innovantes. Être le relais auprès des équipes de développements des bonnes pratiques, et garant de l’application de la politique sécurité ainsi de la performance et l’exploitabilité de ses systèmes (ex?: API) Réaliser ou s’assurer que la documentation technique nécessaire à priori et à posteriori de la réalisation soit réalisée et correctement archivée Être garant de l’automatisation des processus techniques et de l’outillage permettant le passage à l’échelle?: release haute fréquence, tests de qualité de codes auto, TU auto … Expertises techniques / globales?: Vous êtes passionné de développement et justifiez d’une expérience significative en développement e-commerce. Vous connaissez les technos JAVA, JS, XML, JSON, SOAP, Restfull, SQL, HTML/CSS, Bitbucket, Jenkins, Jira/Confluence… Vous avez déjà travaillé sur Sales Force Commerce Cloud (Sitegenesis ou SFRA), Hybris ou autre plateforme e-commerce… Vous avez une bonne connaissance des API de Salesforce B2C COmmerce (OCAPI/SCAPI) et du fonctionnement des Hooks Vous avez déjà travaillé sur la mise en place de Fluent OMS dans B2C Salesforce CommerceCloud Vous avez déjà développé/mise en place plusieurs JOBs. Vous maitrisez l’ensemble des Features que propose le Business Manager aussi bien côté Merchant Tools qu’Organization. Vous êtes sensibilisé aux méthodologies Agiles (Scrum/Kanban/SAFE), à la culture DEVOPS. Vous êtes en perpétuelle veille technologique. Vous êtes doté d’un excellent sens analytique et de synthèse. Une connaissance des KPI Webperf et des leviers à actionner dans le code pour les faire progresser serait un très gros plus Capacité à comprendre & appréhender les besoins fonctionnels Écouter et comprendre les enjeux technico-fonctionnels des projets Orienter et conseiller en tenant compte des contraintes projet, sécurité, design Comprendre les enjeux et priorités business Adopter une approche proactive, force de proposition et orientée solutions Anticiper et s’adapter selon les priorités Savoir-être? Voit les problèmes et les obstacles comme des défis Sait proposer / prioriser et s’adapter en toutes circonstances Sait s’intégrer à une équipe, se faire apprécier pour ses qualités/compétence et adopter une attitude positive avec ses clients et ses collègues Forte culture e-commerce et en technologies digitales Rigueur au quotidien, les travaux sont reconnus pour leur qualité Sens de l’écoute, du dialogue et de la communication Pédagogie et capacité à vulgariser pour être une interface avec les interlocuteurs métiers Sait faire preuve de créativité, d’innovation autant que possible Autonome, sérieux, investi et garant de ses livrables. Regard critique Compétences Niveau de compétence Fluent : Avancé Salesforce : Confirmé XML : Confirmé Démarrage: 05/01/2026
CDI

Offre d'emploi
Développeur Data / BI – Datastage & Power BI (H/F)

Publiée le
IBM DataStage
Microsoft SQL Server
PostgreSQL

55k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👍 Si vous souhaitez mettre vos compétences au service d’un projet stratégique orienté Data & Décisionnel, nous avons LA mission pour vous ! Nous recherchons un(e) Développeur Data / BI (H/F) maîtrisant Datastage, SQL et Power BI pour intervenir sur un projet à forte valeur ajoutée autour de la construction et de l’optimisation du système décisionnel de notre client 🚀 Vous rejoindrez une équipe experte du SI Décisionnel et participerez à des travaux d’alimentation, de transformation et de restitution des données au sein d’un environnement technique exigeant. 🙌🔽 Vos missions principales seront les suivantes : 🔽🙌 Développement & Alimentation de données : 🔸 Concevoir et développer les programmes d’alimentation du Datawarehouse et des Datamarts (ODS, DWH) ; 🔸 Réaliser des traitements complexes via Datastage et le langage SQL ; 🔸 Optimiser les requêtes SQL pour garantir la performance des chaînes de traitements ; Restitution & Reporting : 🔸 Développer des datasets et dataflows sous Power BI ; 🔸 Concevoir et produire des rapports et tableaux de bord utilisateurs ; Qualité, Maintenance & Exploitation : 🔸 Réaliser les tests unitaires et rédiger les plans/fiches de tests ; 🔸 Rédiger le dossier d’exploitation destiné à l’équipe de Production ; 🔸 Prendre en charge les anomalies et évolutions (Run) en lien avec les équipes internes ; 🔸 Respecter les normes et bonnes pratiques en vigueur au sein du SI Décisionnel ; 🔸 Assurer un reporting d’avancement régulier auprès du responsable de domaine.
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Freelance
CDI

Offre d'emploi
Release Manager – Cloud eCommerce Platform

Publiée le
Gestion de projet
Méthode Agile

18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE: Experience: 6ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Release Manager Spécialités technologiques : eCommerce, Gestion de projet Compétences Technologies et Outils JIRA AWS Jenkins GCP confluence GIT CI/CD Azure DevOps Langues Anglais (Natif / bilingue) MISSIONS Le Responsable des Mises en Production (Release Manager) est le pivot de la livraison de code sur une plateforme d'e-commerce complexe, alimentée par de multiples équipes produit aux calendriers échelonnés. Sa mission principale est d'assurer que les changements provenant des différentes squads sont intégrés, testés et déployés de manière fiable et dans les délais, afin de minimiser l'impact client et de maximiser la stabilité de la plateforme. Le Release Manager est responsable d'établir la gouvernance des mises en production, de gérer les dépendances et les risques, et d'être le point de communication central pour le statut des livraisons auprès de toutes les parties prenantes (ingénierie, produit, QA, opérations et métier). Responsabilités Clés 1. Planification et Calendrier des Mises en Production Détenir et maintenir le calendrier des mises en production (majeures, mineures, patches, correctifs urgents), aligné sur les feuilles de route produit et les contraintes opérationnelles/marketing. 2. Coordination et Orchestration Coordonner avec l'Ingénierie, la QA, le DevOps et le SRE pour assurer la préparation des environnements, pipelines et données de test. 3. Gouvernance et Qualité Définir et faire respecter les critères d'entrée/sortie pour les mises en production. Assurer la conformité avec les contrôles du cycle de vie du développement logiciel (SDLC), la gestion du changement 4. Gestion des Risques et Préparation aux Incidents 5. Communication et Gestion des Parties Prenantes Présider les réunions de préparation au lancement et les revues post-implémentation, capturant les actions d'amélioration continue. 6. Amélioration des Processus et Automatisation Collaborer avec l'équipe DevOps pour optimiser les pipelines CI/CD et améliorer la fiabilité et la vitesse du déploiement. Suivre les métriques de mise en production (taux d'échec de changement, temps de cycle, etc.). 7. Gestion des Environnements et de la Configuration Superviser les flux de promotion à travers les environnements (Dev, QA, Staging, Pré-Prod, Prod). Coordonner les plans de migration des données et de versioning des schémas avec des stratégies de déploiement 8. Conformité, Sécurité et Observabilité Activités Quotidiennes Types - Synchronisations quotidiennes avec les équipes produit pour suivre la préparation et les bloqueurs. - Curation du release train et séquençage des fusions - Validation des résultats de test et approbation des étapes de qualité - Animation des réunions de préparation au lancement et des décisions Go/No-Go - Coordination des déploiements avec le DevOps/SRE Expertise souhaitée Expérience et Compétences Techniques Requises Nous recherchons un professionnel possédant plus de 5 années d'expérience dans des fonctions clés comme la Gestion des Mises en Production, le DevOps, l'Ingénierie de Build/Release, ou des rôles équivalents sur des plateformes numériques à fort trafic. Expertise Technique et Outils : - Expérience indispensable en coordination de livraisons sur de multiples équipes produit Agiles aux calendriers échelonnés. - Maîtrise des pipelines CI/CD, des stratégies de branching - Familiarité avec les outils de gestion de projet et de code tels que Jira, Confluence, GitHub/GitLab/Bitbucket, Jenkins/GitHub Actions/Azure DevOps, et Artifactory/Nexus - Connaissance des plateformes Cloud (AWS/Azure/GCP) et des méthodes de déploiement modernes (Kubernetes, serverless, conteneurisation). - Maîtrise des pratiques QA (tests automatisés, régression, performance, sécurité) et des systèmes de validation des livraisons - Expertise dans la mise en œuvre de bascules de fonctionnalités des pratiques SRE (métriques), et des déploiements - Expérience avec la gestion de la rétrocompatibilité, ainsi que la migration et le versioning des données dans les architectures de microservices - Exposition à la Gestion du changement ITIL et aux cadres d'audit/conformité (PCI DSS, RGPD) - Expérience en e-commerce (catalogue, paiement, prix, recherche, personnalisation) et compréhension des contraintes liées aux événements de pic (soldes, fêtes) Compétences Transversales - Gestion de Projet Agile - Gestion des Releases - Communication - Anglais : Bilingue
Freelance

Mission freelance
Data Analyste Communication Digitale

Publiée le
Réseaux sociaux
Site web
Web

18 mois
100-400 €
Paris, France
Télétravail partiel
MISSIONS : - Assurer une veille continue et réactive des sujets de discussions sur les réseaux sociaux et le web, au travers d’outils de social listening - Rédiger en temps limité des notes d'analyse des retombées sur ces sujets (des notes quotidiennes, mensuelles, thématiques, ad hoc…) - Assurer une veille en temps réel des sujets de crise et, régulièrement, d’émissions en direct durant leur diffusion en soirée - Effectuer des études réputationnelles et des recommandations de profils d’influenceurs et influenceuses -Construire des recommandations stratégiques et éditoriales à l'attention de l'équipe de la Direction de la communication digitale et des autres Directions du Groupe Expertises demandées : - Plus de 5 ans d’expérience similaire - La maîtrise préalable de Talkwalker et de X Pro est nécessaire pour la réalisation de la prestation, de même qu'une expertise avancée des méthodologies d'écoute. - Une excellente aisance rédactionnelle est nécessaire, avec une rigueur syntaxique et orthographique marquée. -Des connaissances étendues sur les sujets sociétaux, politiques, médiatiques et numériques devront pouvoir être mobilisées. Spécifiquement, des connaissances sur le fonctionnement des principaux réseaux sociaux sont attendues.
CDI

Offre d'emploi
Business Analyst ServiceNow Module SPM

Publiée le
Business Analyst

60k-75k €
Issy-les-Moulineaux, Île-de-France
Nous recherchons un Business Analyst ServiceNow – Module SPM dont la mission sera d’assurer, au sein de l’équipe ServiceNow, l’analyse fonctionnelle et le pilotage en autonomie de plusieurs chantiers, notamment la mise en place du module de gestion de projet (SPM) sur la plateforme ServiceNow. Opérationnel : Analyse fonctionnelle de la mise en place de la gestion de projet pour le centre de services Data via le module SPM Analyse fonctionnelle du projet de gestion de la demande en collaboration avec le Directeur du centre de services Applications Pilotage et animation de la démarche de définition d’un modèle opérationnel de support avec les directeurs de domaines et les responsables des centres de services IT (Lignes de services) Rédaction des user stories à destination de l’équipe d’intégration ServiceNow Animation et participation aux phases de recette fonctionnelle des projets Accompagnement au changement auprès des utilisateurs et des parties prenantes. Gouvernance : Animation d’un point hebdomadaire d’avancement avec le Responsable Qualité SI Préparation et participation au comité de pilotage mensuel Pilotage en autonomie des projets confiés (qualité, coûts, délais) Livrables : Reporting d’activité
Freelance
CDD
CDI

Offre d'emploi
Consultant Data Databricks (F/H)

Publiée le
Apache Spark
Databricks
DevOps

3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Freelance

Mission freelance
Consultant Fonctionnel certifié SAP Public cloud – Logistique (H/F)

Publiée le
SAP S/4HANA

7 mois
Paris, France
Télétravail partiel
Dans le cadre d’un projet SAP S/4HANA Public Cloud Edition déjà lancé, nous recherchons un consultant fonctionnel confirmé pour intervenir sur le périmètre Opérations et soutenir les équipes internes dans les phases d’intégration et de design. Missions : Contribuer à l’intégration SAP Public Cloud Edition avec les systèmes satellites (WMS, POS…). Animer les workshops et valider les spécifications d’intégration. Participer aux tests d’intégration et à la résolution des écarts. Accompagner la migration des données (master data et transactionnel). Apporter une expertise sur les processus standards SAP Public Cloud Edition et contribuer aux choix process/techniques. Participer aux réunions de revue/validation avec l’intégrateur. Collaborer avec les équipes Change. Contribuer à la montée en compétences des équipes internes.
4888 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous