L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 887 résultats.
Mission freelance
101126/Chef de Projet - Niort (3 jours/TT) - DevOps ITIL
WorldWide People
Publiée le
DevOps
12 mois
400-550 €
Niort, Nouvelle-Aquitaine
Chef de Projet - Niort (3 jours/TT) - Des compétences avancées en DevOps. - Des compétences élémentaires en observabilité. - Une maîtrise avancée d'ITIL. - Une expertise avancée en planification et ordonnancement.Mission de plus de 1 an débutant le 30 mars 2026, dans le secteur des assurances mutualistes. Il s'agit de mener une prestation de chef de projets au sein de la Direction Digitale et des Systèmes d'Information et de son département 'Support et Opérations'. Ce département est le garant de la disponibilité du SI et de la qualité de service aux utilisateurs de la marque de notre Client. La prestation est basée à Niort, avec une possibilité de télétravail de trois jours par semaine. Mission principale : piloter les projets d’évolution de la chaîne de support. Responsabilités : - Piloter et livrer les projets transverses en responsabilité, notamment les projets d'évolution des outils de la chaîne de support (ITSM, observabilité, monitoring, ordonnanceurs…). - Fédérer les besoins des exploitants et les contraintes des équipes de développement. - S’assurer de l'intégration des critères d'exploitabilité, y compris la documentation et la formation des équipes N1/N2, ainsi que la mise en place d'outils de diagnostic. - Préparer la mise en production avec les équipes techniques. - Réaliser les communications liées aux phases de livraison, tant pour les équipes techniques que pour les utilisateurs. - Assurer, avec les équipes techniques, le maintien opérationnel de la solution livrée. - Collaborer étroitement avec les chefs de projets des départements de l’IT. - Rendre compte de l’état d’avancement des projets. La mission nécessite : - Des compétences avancées en DevOps. - Des compétences élémentaires en observabilité. - Une maîtrise avancée d'ITIL. - Une expertise avancée en planification et ordonnancement.
Mission freelance
TECH LEAD - AWS DATA ENGINEER
CHOURAK CONSULTING
Publiée le
Amazon Redshift
Amazon S3
Apache Airflow
3 mois
400-700 €
Île-de-France, France
Nous recherchons plusieurs AWS Data Engineers Seniors pour renforcer une équipe Data Platform . 🎯 Contexte de la mission Vous intégrerez une équipe en charge de la plateforme Data , avec des enjeux forts de scalabilité, industrialisation et fiabilité des flux de données . Les missions s’inscrivent dans un environnement cloud moderne, orienté bonnes pratiques et performance. ⚙️ Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables . Contribuer à l’évolution de la plateforme Data . Mettre en place et maintenir l’ infrastructure as code . Participer à l’industrialisation des traitements (CI/CD, containerisation). Travailler en collaboration avec les équipes Data, Produit et Architecture. Être force de proposition sur les choix techniques et les optimisations.
Mission freelance
UI/UX Data Designer (H/F) - IDF + Remote
Mindquest
Publiée le
Databricks
Figma
Microsoft Power BI
3 mois
330-480 €
Roissy-en-France, Île-de-France
Le chantier Cockpit a pour objectif de construire des outils de pilotage afin d'assister dans la prise de décision. Dans ce chantier, le Design System DataViz a été construit avec l'objectif de rendre les informations complexes accessibles et exploitables grâce à une visualisation claire et intuitive. La construction du Design System DataViz est au coeur de la construction des outils de pilotage (chantier Cockpit). Il s'agit de construire un langage commun pour l’ensemble des métiers en standardisant les éléments design et les composants visuels Power BI. Contenu détaillé de la prestation : Vous allez travailler étroitement avec le directeur de projets Design System DataViz, les équipes Data et les métiers. Le but de la prestation consiste à l'accompagnement UX/UI design dans la production DIRECTION DES SYSTEMES D'INFORMATION Le but de la prestation consiste à l'accompagnement UX/UI design dans la production et livraison d'éléments design et graphiques, de composants Power BI dessinés dans le cadre du design system DataViz, de maquettes Power BI. - Comprendre les besoins et les enjeux à piloter - Comprendre les connaissances nécessaires pour le pilotage et la décision - Traduire les besoins/enjeux en conception et en design en s'appuyant sur le design system actuel Par exemple : o Mettre en place les scénarisations des KPI o Mettre en place la hiérarchisation visuelle par typographie et graphique o Mettre en place les filtres interactifs… - Concevoir / produire les éléments de design pour répondre au besoin conception - Produire / enrichir / standardiser le design system - les éléments design pour conception (ex: palette de couleurs contrastées, encadrés et pictogrammes, graphiques enrichis et dessinés…) - Produire / faire évoluer / enrichir / standardiser le design system es composants Power BI pour Dashboard - Maintenir / faire évoluer / produire la bibliothèque design system conception (éléments design) - Maintenir / faire évoluer / produire la bibliothèque design system Power BI (composants PBI dessinés) - Produire les maquettes Power BI Attentes pour la prestation • Conception / réalisation des outils de pilotage pour les différents enjeux / métiers • Réalisation des éléments design • Réalisation des éléments Power BI dessinés • Réalisation des maquettes / reportings PBI dynamiques • Enrichissement et gestion de nos dictionnaires design system • Rédaction des cahiers des charges, spécifications fonctionnelles et techniques nécessaires • Garant de la qualité de réalisation Le(la) consultant(e) va travailler sur les environnements (Figam, PowerBI, Azure, Databricks, SQL, …) co-managé par les équipes Data Factory ainsi que les équipes DCLD (direction client digital). Livrables • Design system – éléments de conception UIUX • Design system – composants Power BI dessiné • Reportings/Maquettes Power BI dynamique • Cahiers des charges / CR / Dictionnaires • Présentation / Documentation Technique • Figma • Power BI / DAX • Cloud Azure • Databricks • SQL • Python, Spark, Scala • Spyder…
Offre d'emploi
Chef de projet Data (Expert Power BI)
AVALIANCE
Publiée le
Agile Scrum
Alteryx
DAX
Nanterre, Île-de-France
Description de la mission : Globalement votre mission pourra être de plusieurs niveaux : - Participer aux différents sujets ayant traits à Power BI - Accompagner les métiers dans l’assistance, avec animation formation au besoin, sur Power BI - Organiser des ateliers de best practices avec les métiers sur Power BI - Contribuer à enrichir et consolider le socle Power BI Et plus précisément : - Maîtrise et pratique de SQL sous Oracle indispensable - Participer et réaliser les développements sur Power BI (où vous serez également force de proposition) - Développement des Datasets sous Power BI - Modélisation des tables de faits/Dimensions et optimisation de scripts et modèles de données - Utilisation du langage DAX pour l’ajout des champs calculés et le calcul des mesures (KPI) - Gestion des sécurités et des habilitations dans Power BI - Collaborer au quotidien avec les autres développeurs de notre équipe - Rédaction des documents des spécifications techniques et livrables - Assister les utilisateurs internes pour gérer leurs demandes (analyse et traitement de données, rapports…) Compétences en Chefferie de Projet & Gouvernance DATA : - Proposer et Harmoniser un cycle de vie des développements sur power BI - Coordonner et animer réunions, ateliers et comités liés à la DATA - Concevoir des supports (présentations, synthèses, reportings) - Gérer l’organisation complète des réunions et le suivi d’actions - Faire preuve d’autonomie et être force de proposition - Participer activement à la gouvernance DATA et promouvoir les bonnes pratiques
Offre d'emploi
Expert Data Gouvernance
KEONI CONSULTING
Publiée le
Hadoop
IBM DataStage
PostgreSQL
18 mois
20k-60k €
100-550 €
Paris, France
"Contexte du besoin Dans le cadre de ses missions de définition des politiques de gestion des données et du suivi de leur mise en œuvre, l'activité Gouvernance de la Donnée souhaite renforcer son équipe d'un profil confirmé en la matière. Un accompagnement assorti d'un regard éclairé dans l'exécution des différents pans des missions est demandé MISSIONS · définition des politiques de gestion des données (rôles et responsabilités; · mise en place/alimentation d'un Glossaire métier et d'un Dictionnaire des données; · modalités de suivi de la qualité des données; · modalités permettant d'assurer la sécurité et la conformité réglementaire de l'accès aux données; · articulation avec les capacités de la plate-forme Data choisie par l'entreprise); · mise en oeuvre et suivi de ces politiques, en lien avec les contributeurs nécessaires; acculturation des différentes populations de l'entreprise aux exigences et apports en lien avec la gouvernance des données; · etc.... • Participation le cas échéant au choix des outils de gouvernance des données (rencontres fournisseurs initiées; échanges en cours) • Catalogage / connaissance des données : Définir les standards et bonnes pratiques et en vérifier la bonne application en mobilisant les acteurs requis (SI, métier), assurer l’acculturation nécessaire; • Cartographie des Données : Approfondir la cartographie des données qui aura été initiée (avec les acteurs métier, SI, urbanistes) et être capable de la présenter, la faire adopter et de l’utiliser à des fins de gouvernance des données… • Conformité règlementaire : Garantir que toutes les données respectent les normes internes et externes, en particulier en matière de RGPD et de conformité légale. • Gestion des rôles et animation de la communauté Data : Identifier les relais de la gouvernance dans un contexte de responsabilités fédérées. Mobiliser les acteurs (animation de séminaires, communication…). • Gestion des habilitations : Définir la granularité des habilitations des rôles et utilisateurs identifiés. • Accompagnement de la montée en compétence des autres membres de l'équipe sur des sujets structurants devant être maîtrisés pour mener à bien les missions de l'activité" Livrables attendus "Chapitres thématiques de la politique de Gouvernance des données (rôles et responsabilités; gestion Glossaire/Dictionnaire ; gestion du Data Lineage; sécurité et droits d'accès, dont conformité juridique; Suivi de la qualité des données; process permettant l'évolution de la plate-forme Data" Environnement technique - technologique • couche stockage : TERADATA; HADOOP Cloudera; Postgre • Transformation : DataStage / Spark • BI : Power BI; SAS"
Offre d'emploi
Expert Automation / RPA / Data (H/F)
OMICRONE
Publiée le
Automatisation
Data analysis
Python
2 ans
40k-45k €
400-500 €
Île-de-France, France
📢 Mission – Expert Automation / RPA / Data (H/F) Dans le cadre d’un projet d’automatisation à forte valeur ajoutée, nous recherchons un expert en automatisation et traitement de documents pour intervenir sur des sujets innovants mêlant RPA et Data. 🔹 Missions : Conception et développement de solutions d’automatisation Traitement et automatisation de documents (workflows) Optimisation des processus métiers via RPA Contribution à des cas d’usage mêlant data et automatisation 🔹 Stack / Compétences : UiPath, Python, Data Science, automatisation de processus, traitement documentaire 👤 Profil : Senior / Expert 🌍 Anglais professionnel requis ⚠️ Profils basés en France uniquement ❌ Sous-traitance non autorisée
Mission freelance
Data Scientist
Orcan Intelligence
Publiée le
Large Language Model (LLM)
MLOps
Python
5 mois
500-650 €
Paris, France
Nous recherchons un/e Data Scientist pour rejoindre une équipe dynamique en Région parisienne (onsite 1x par semaine). Vous participerez à la conception et à la mise en œuvre de solutions de data science et d’apprentissage automatique à fort impact, contribuant directement à la création de valeur pour l’entreprise. Missions principales Concevoir et implémenter des solutions de data science de bout en bout pour résoudre des problématiques métier. Extraire, nettoyer et analyser de grands volumes de données, notamment à l’aide de Teradata Vantage et SQL . Construire et déployer des modèles de machine learning en Python . Exploiter des feature stores pour le développement et la mise en production des modèles. Explorer et appliquer des approches en IA générative (LLM, transformers) selon les cas d’usage. Définir des stratégies de data science alignées avec les objectifs métier et la feuille de route data de long terme. Communiquer méthodologies, résultats et recommandations à des publics variés (techniques et non techniques). Préparer et présenter des analyses et recommandations claires à différents niveaux (direction, opérationnel, technique). Collaborer avec les data engineers, analystes et experts métier pour intégrer les solutions en production. Contribuer à l’amélioration continue des outils, processus et bonnes pratiques en data science.
Offre d'emploi
Architecte Data AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
Mission freelance
Consultant SAP Data Migration
CRYSTAL PLACEMENT
Publiée le
SAP
12 mois
Paris, France
Nous recherchons des consultants SAP confirmés / Data Migration Experts pour un projet stratégique de migration S/4HANA . Profil recherché : BA confirmé ou Data Migration Expert Expérience sur projets Core Model ou roll-out SAP Compréhension des processus industriels / manufacturiers (PP / QM / MM / APO) Capacité à structurer méthodologie, templates et règles de migration Forte posture coordination, animation et arbitrage Mission : Pilotage complet de la migration de données : préparation, cycles MOCK / UAT et production Définition et suivi des templates, mapping rules et séquences de chargement Support aux équipes métier et animation de la communauté Data Migration Experts Durée : 1 an minimum Séniorité : 4 à 7 ans d’expérience Intéressé(e) ou à recommander ? Envoyez votre CV directement pour être contacté.
Mission freelance
Développeur Scripting (Python / Shell) – Data / Secteur Bancaire (H/F)
CELAD
Publiée le
1 an
450-460 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur orienté scripting, automatisation & data pour intervenir chez l’un de nos clients du secteur bancaire . Dans un contexte de transformation, de rationalisation du SI et de pilotage de la performance IT, vous rejoignez une équipe transverse et intervenez sur des sujets à forte valeur ajoutée : automatisation, exploitation de données, conformité, industrialisation et pilotage applicatif. Vos missions Automatisation & exploitation de la donnée Conception et développement de scripts d’automatisation Collecte, nettoyage, consolidation et historisation de données issues de multiples outils Analyse du planifié vs réalisé et identification des écarts Mise en place de snapshots périodiques et production d’indicateurs de pilotage APIs, logs & industrialisation Conception et développement d’APIs (exposition / consommation) Mise en place d’une base de logs centralisée Automatisation des flux de remontée d’information Industrialisation et fiabilisation des traitements Conformité & qualité du SI Extraction et exploitation de données issues d’outils d’industrialisation et CI/CD Analyse des normes, détection d’anomalies et d’écarts Construction d’indicateurs de conformité et maturité Référentiels & pilotage projet Contribution à la structuration du référentiel projets Études autour des APIs d’outils de gestion de projets Analyse des points de blocage techniques et organisationnels
Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark
3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Mission freelance
Data Manager Senior - Paris - Anglais
ARTESIA IT
Publiée le
Data governance
1 an
600-700 €
Paris, France
Nous recherchons un Data Manager pour un rôle transverse, axé sur l’urbanisation des données, l’architecture fonctionnelle des données et la gouvernance des données, afin de garantir la cohérence, l’interopérabilité et la fiabilité à long terme des actifs data à travers les différents domaines. 🔹 Présentation du poste • Architecture fonctionnelle des données & modélisation des données • Urbanisation des données : ownership par domaine, valorisation des actifs data et définition de la vision cible des données • Qualité des données & gouvernance des données • Travail dans un environnement Agile • Interaction avec les parties prenantes métiers et IT • Excellentes compétences relationnelles pour accompagner le changement de manière intelligente et constructive • Forte compréhension technique combinée à une solide vision métier • Profil proactif et autonome, capable de clarifier des sujets complexes et de favoriser l’alignement lorsque plusieurs équipes sont impliquées 🔹 Profil recherché • Forte expérience en modélisation des données et en pratiques de data management • Solide compréhension de la normalisation / dénormalisation, du SQL et de la traçabilité des données (data lineage) • Minimum 10 ans d’expérience professionnelle en Data Management • Maîtrise du français et de l’anglais • Présence en France requise • Basé à Paris (60 % télétravail / 40 % sur site)
Mission freelance
Consultant Informatica (Run) Nantes (3 jours de télétravail)/du
WorldWide People
Publiée le
Informatica
12 mois
350-370 €
Nantes, Pays de la Loire
Consultant Informatica (Run) Nantes (3 jours de télétravail) Début avril 1 an 4 ans d'expérience minimum sur informatica Nantes (3 jours de télétravail) Informatica, SQL, Oracle,Exadata La prestation consiste à accompagner l'équipe interne (2 ETP) sur les activités run informatica: -assurer le suivi de production -analyser les incidents -pointer les traitements qui ont tourné et ceux manquants et pourquoi -bilan et recherche d'amélioration La prestation nécessite d'avoir 4 ans d'expérience minimum sur informatica
Offre d'emploi
Data Analyst (confirmé/sénior) F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Docker
Java
Montpellier, Occitanie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Lead DevOps (CKAD)
Craftman data
Publiée le
Argo CD
Docker
FLUXCD
1 an
46k-60k €
500-700 €
Le Havre, Normandie
Rôle attendu Référent technique opérationnel de la squad DevOps, responsable de l’implémentation des pipelines CI/CD et de la démarche GitOps. Missions principales · Mise en œuvre et maintien des pipelines CI/CD · Déploiement d’une approche GitOps (ArgoCD / FluxCD) · Industrialisation des builds, tests, déploiements et rollbacks · Structuration des repositories GitOps · Supervision technique des ingénieurs DevOps Compétences requises · Jenkins, GitHub Actions, GitLab CI · ArgoCD, FluxCD · Docker (multi-stage builds) · Helm (charts, templating, hooks) · Vault, External Secrets · SonarQube, tests automatisés GitLab CI, Nexus, Root-Ceph
Offre d'emploi
Chef de Projet Data Gouvernance H.F
NSI France
Publiée le
Azure
DataGalaxy
Gouvernance, gestion des risques et conformité (GRC)
30 jours
Châtillon, Île-de-France
Description de l'offre d'emploi Acteur majeur dans le domaine IT, depuis notre création en 1993, nous n'avons cessé de croître et d'évoluer. Avec une équipe dévouée de près de 1.400 collaborateurs répartis sur plusieurs sites en Belgique, au Luxembourg, en France et au Canada, NSI a suivi une trajectoire exceptionnelle. Notre entreprise est à la pointe de la révolution numérique, offrant une gamme complète de services IT, de l'analyse au développement de logiciels, en passant par l'architecture et la gouvernance IT. Votre rôle Le/la consultant(e) travaillera pour un client de NSI France basé en IDF dans le secteur de l’agroalimentaire avec de gros enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. Descriptif des missions Contribuer à la mise en place et au pilotage de la gouvernance des données (qualité, fiabilité, cohérence) Identifier, structurer et documenter les données et indicateurs critiques en lien avec les métiers Définir et suivre les indicateurs de qualité des données et mettre en œuvre des actions d’amélioration continue Concevoir des tableaux de bord de pilotage (qualité, usages, performance data) Détecter les anomalies et formuler des recommandations structurantes en matière de data gouvernance Collaborer avec les équipes métiers, produits et IT pour intégrer la gouvernance dès la conception Animer et accompagner la communauté des Data Analysts autour des bonnes pratiques data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2887 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois