Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 003 résultats.
CDI

Offre d'emploi
Data Modeleur / Architecte data

DATACORP
Publiée le

55k-65k €
Biot, Provence-Alpes-Côte d'Azur

Dans le cadre du projet de transformation et de modernisation de notre système d'information décisionnel, nous recherchons un data modeler expérimenté pour renforcer l’équipe Data. La mission porte sur la conception et la formalisation de modèles de données destinés à alimenter des usages décisionnels et analytiques, avec un fort enjeu de qualité, de pérennité et d’alignement avec les standards du métier. Le candidat travaillera en étroite collaboration avec les équipes data, les experts métiers et les data ingénieurs.

CDI
Freelance

Offre d'emploi
Ingénieur GO - Golang

CELAD
Publiée le
AWS Cloud
Azure
CI/CD

6 mois
Carros, Provence-Alpes-Côte d'Azur

Nous recherchons un Ingénieur pour notre client acteur réputé à Nice. Pour renforcer son pôle Développement Backend et Cloud, la Direction des IT Services du groupe CELAD recrute un Développeur Go (Golang) (H/F). Cette opportunité est pour du long terme et s'inscrit au sein d'un projet majeur pour le développement du groupe et de ses objectifs. Missions principales : - Concevoir, développer et maintenir des services backend en Go (Golang) - Participer à l'architecture et à la conception technique des solutions distribuées et scalables - Développer et intégrer des API REST/GraphQL et des microservices - Contribuer à l'automatisation et au déploiement via des environnements Cloud / DevOps - Assurer la qualité du code (tests unitaires, revues de code, CI/CD) et veiller aux bonnes pratiques de sécurité Chez CELAD, le développement de carrière des ingénieurs est au coeur de notre modèle. Nous vous offrons l'opportunité de prendre rapidement des responsabilités et d'évoluer en fonction de vos objectifs professionnels. Vous vous reconnaissez dans cette description ? Alors, envoyez-nous votre CV ! Nos équipes seront ravies d'étudier votre candidature et de vous rencontrer !

Freelance

Mission freelance
Data Engineer

Phaidon London- Glocomms
Publiée le
AWS Cloud
Dataiku
Python

12 mois
Paris, France

Mon client, une banque basée à Paris, recrute deux Ingénieurs Data pour renforcer ses capacités de lutte contre la criminalité financière, notamment dans le cadre de la surveillance des transactions. Ce rôle consiste à construire et optimiser des pipelines de données permettant la détection en temps réel d’activités suspectes, afin d’aider l’établissement à répondre aux exigences réglementaires et à se protéger contre le blanchiment d’argent et la fraude..

CDI

Offre d'emploi
Expert Power BI (H/F)

OBJECTWARE MANAGEMENT GROUP
Publiée le
Dataiku
Google Cloud Platform (GCP)
Microsoft Power BI

45k-65k €
Bordeaux, Nouvelle-Aquitaine

Définir l’architecture des solutions Power BI, modéliser les données (modèle en étoile, Power Query, DAX) et concevoir des tableaux de bord performants. Mettre en place les bonnes pratiques de gouvernance Power BI (Workspaces, accès, partages, cycle de vie) Interagir avec les métiers pour comprendre les besoins, les challenger et les traduire en solutions techniques robustes.Analyser et recueillir les besoins des clients Rédiger les spécifications fonctionnelles et techniques Concevoir des datawarehouses et des datamarts Développer des procédures d’alimentation (ETL) et/ou de reporting Réaliser les phases de test et de recette Assurer le suivi et la mise en production Rédiger la documentation technique Animer des sessions de formation auprès des utilisateurs

Freelance
CDI

Offre d'emploi
Lead python et Data

AVALIANCE
Publiée le
Modèle Conceptuel des Données (MCD)
Modélisation
Pandas

2 ans
40k-60k €
400-600 €
Rueil-Malmaison, Île-de-France

• Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)

Freelance

Mission freelance
Product Owner – Plateforme Data

KEONI CONSULTING
Publiée le
DevOps

18 mois
100-580 €
Paris, France

CONTEXTE Le département Data IA (DaIA) a la charge de mettre à disposition des métiers un socle technologique transverse - La plateforme de Donnée - Une Plateforme de données gouvernées et disponibles c'est-à-dire de qualité, documentée, ayant une traçabilité, dont les accès sont gérés finement, cataloguées et monitorées. Nous recherchons une prestation de Product Owner expérimenté pour superviser le développement et la mise en œuvre de notre plateforme data. Le candidat idéal aura une solide expérience en gestion de projet dans le domaine de la data, avec une compréhension approfondie des technologies cloud et big data. Le candidat sera en étroite collaboration avec les équipes technique et métier du projet et les parties prenantes de l'entreprise. MISSIONS Superviser tous les aspects de vie du produit, y compris la planification, la gouvernance, l'allocation des ressources, le suivi du progrès et la communication avec les parties prenantes. • Définir la feuille de route du projet, le périmètre et le calendrier des livraisons en accord avec les parties prenantes. Veiller au bon déroulement des projets, au respect des délais et des budgets. • Planification du Maintien en Condition Opértionnel de la plateforme et les processus opérationnels pour l’ingéniérie de la fiabilité des sites (SRE). • Collaboration avec l’équipe technique : ingénieurs, développeurs, analystes data et les autres membres de l'équipe pour assurer une exécution fluide du projet et participer aux rituels agiles des équipes. • Définir et suivre les indicateurs de performance clés (KPIs) pour évaluer la charge, capacité des équipes et le suivi des livraisons pour les différentes équipes. • Identifier les risques et mettre en place des plans de contingence pour minimiser l'impact sur le projet. • Identifier et mettre en œuvre des actions d’amélioration continue (processus, outils, pratiques) et mettre en place et gérer une base de connaissances de projets pour capitaliser sur les leçons apprises et favoriser le partage des meilleures pratiques. • Fournir des mises à jour régulières sur l'état du projet aux parties prenantes et à la direction et assurer la mise en place et le déroulement des réunions de suivi. • Fournir une formation et un soutien aux utilisateurs finaux sur les meilleures pratiques en matière de gestion des données. Expertises demandées pour la réalisation de la prestation : 8 ans d'expérience en Product Ownership, dans le domaine de la data ou du digital et des nouvelles technologies • Utilisation de Jira et Confluence : MAITRISE • Utilisation des méthodologies Agiles (SCUM, Kanban, Lean) : MATRISE • Connaissance des process ITIL : CONNAISANCE • Connaissance de l’environnement Cloud GCP (une certification est un plus) : CONNAISANCE • Excellentes compétences en gestion de projet, y compris la planification, l'organisation, la gestion du temps et la résolution de problèmes : CONFIRME • Excellentes compétences en gestion de produits, suivi et roadmap : MAITRISE • Excellentes compétences en communication écrite et verbale en français et en anglais, et savoir discuter dans des situations tendues : MAITRISE • Excellente compétence dans l’animation de communauté d’utilisateurs. : MAITRISE • Autonomie et capacité à gérer plusieurs tâches et équipes métier simultanément : MAITRISE • Une expérience préalable de gestion de projet avec des équipes DevOps (DevOps/ GitOps /FinOps/SecOps) : CONFIRME • Une expérience dans le milieu de media est exigée : CONFIRME

CDI

Offre d'emploi
Data Engineer - SQL Server/ SSIS – Environnement Agile

Argain Consulting Innovation
Publiée le
Agile Scrum
Gestion des habilitations
Microsoft SQL Server

40k-45k €
Nantes, Pays de la Loire

Dans le cadre de l’évolution d’une plateforme de gestion et de préparation de données sous SQL Server, nous recherchons un profil data Engineer capable de prendre en charge les demandes et incidents, d’accompagner les équipes au quotidien et de contribuer à la fiabilisation des traitements de données. 🧩 Tâches principales Assurer la réception, qualification et suivi des tickets (incidents fonctionnels et techniques) dans un environnement Agile. Prendre en charge la résolution d’incidents de premier niveau (SQL, habilitations, accès, erreurs simples de traitements). Escalader et documenter les incidents complexes vers les équipes de développement ou d’infrastructure. Accompagner les utilisateurs dans l’usage de la plateforme (explications, assistance, formation ponctuelle). Participer aux tests de non-régression et validations lors des évolutions ou migrations. Contribuer à l’ amélioration continue des processus de support et de documentation. Collaborer avec les équipes projet et développement dans un cadre Agile / Scrum (daily, rétrospectives, etc.).

Freelance
CDI

Offre d'emploi
Expert Data - Modélisation et Architecture

INFOTEL CONSEIL
Publiée le
Modélisation
SQL

12 mois
Île-de-France, France

Lieu : IDF / télétravail partiel Démarrage : ASAP Durée : mission longue Notre client souhaite renforcer ses équipes avec un Expert Data. Forte expertise en architecture et modélisation de données issues de la DSN (Déclaration Sociale Nominative). Missions principales : Recueillir les besoins d’exploitation et d’analyse autour des données DSN. Concevoir la modélisation fonctionnelle et technique des données. Participer au développement et au déploiement du socle DSN. Coordonner les ateliers, assurer la diffusion de la connaissance. Garantir la qualité, la cohérence et la documentation du modèle. Connaissance assurantiel obligatoire.

Freelance

Mission freelance
Data Engineer / Analytics Engineer Microsoft Fabric

Hubflow
Publiée le
Microsoft Fabric

6 mois
450-560 €
Paris, France

Contexte : Notre client, un grand établissement financier, recherche un Data / Analytics Engineer spécialisé sur l’écosystème Microsoft Fabric pour intervenir dans un projet stratégique de migration de Synapse vers Fabric. Le contexte fonctionnel est très novateur, il permet le suivi de l'ensemble du processus d'achat de l'entreprise. La mission, d’une durée initiale de plus de 6 mois et reconductible, s’inscrit dans un programme long terme de modernisation des plateformes data & analytics. Missions principales : Le consultant interviendra en tant que Data Engineer / Analytics Engineer et aura pour responsabilités : Concevoir, développer et maintenir des pipelines de données dans Azure Data Factory et Microsoft Fabric Data Factory. Accompagner la migration des pipelines Synapse vers Fabric Data Factory. Migrer les workloads SQL Serverless de Synapse vers un Lakehouse Fabric. Participer à la modélisation des données et à l’optimisation des flux pour des usages analytiques et reporting. Contribuer à l’industrialisation et à la mise en place de bonnes pratiques (performance, qualité, sécurité). Collaborer avec les équipes métiers et BI pour assurer la bonne alimentation des modèles Power BI. Rédiger la documentation technique et transférer les compétences aux équipes internes. Compétences recherchées : Compétences principales (indispensables) : Microsoft Fabric (Data Factory, Lakehouse, OneLake). Azure Data Factory (ADF). Synapse Analytics (pipelines & SQL Serverless). Power BI (modélisation, intégration des datasets). Compétences secondaires (atouts) : Python pour l’automatisation et la transformation des données. PowerShell pour le scripting et l’automatisation des environnements Azure. Profil recherché : Minimum 3 à 5 ans d’expérience en tant que Data Engineer / Analytics Engineer. Solide expérience dans la migration ou la mise en place de solutions cloud data Microsoft. Expérience dans des environnements grands comptes ou secteur financier appréciée. Capacité à travailler en mode projet (agilité, collaboration avec plusieurs équipes). Bonnes compétences de communication et capacité à vulgariser les enjeux techniques auprès des métiers. Informations pratiques : Lieu : Paris / Île-de-France. Télétravail : jusqu’à 3 jours par semaine. Durée : mission longue (> 6 mois), reconductible. Démarrage : dès que possible. TJ : 550€ Merci de faire parvenir vos CV à :

Freelance

Mission freelance
Expert sécurité cloud GCP/ IAM/ SECURITE, RESEAUX/ TERRAFORM/ PYTHON (H/F)

Octopus Group
Publiée le
IAM
Python
Réseaux

1 an
560-650 €
Paris, France

Nous recherchons pour le compte de notre client dans le domaine bancaire un expert sécurité GCP afin de les accompagner dans l'évaluation, la mise en œuvre et l'optimisation de leurs pratiques de sécurité Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité. Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique

Freelance

Mission freelance
Data Engineer Fabric .Net

Cherry Pick
Publiée le
.NET
Databricks
Python

8 mois
500-520 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un Data Engineer Fabric .Net , pour le compte de l'un de ses clients qui opère dans le domaine de l'Energie. Description 🧩 Contexte de la mission Intégré(e) à la squad Data Platform, vous interviendrez sur des projets stratégiques de modernisation et d’industrialisation de la plateforme Data du groupe. Votre rôle consistera à concevoir, maintenir et sécuriser l’infrastructure data et cloud, tout en accompagnant les équipes Data et DevOps dans leurs déploiements et pratiques CI/CD. Vous serez au cœur des sujets Terraform, Databricks, AWS, Python et MS Fabric, en interaction directe avec les Data Engineers, Data Architects et Data Officers. 🎯 Objectifs et livrables Participer à la réalisation du workplan et aux user stories du backlog. Automatiser les déploiements d’infrastructure via Terraform et GitHub Actions. Maintenir et améliorer le pipeline CI/CD (Terraform, Docker, AWS, MS Fabric). Contribuer au monitoring et à l’exploitation de la Data Platform. Développer des microservices en Python ou .NET (C#). Participer aux activités de Build et de RUN, incluant le support et les mises en production. Améliorer la résilience, la qualité et la sécurité du code (“shift-left”). Proposer des optimisations FinOps et d’observabilité (Grafana, App Insights). Maintenir la documentation technique et les bonnes pratiques DevOps/DataOps.

Freelance
CDI

Offre d'emploi
Développeur Python (H/F) (38)

Aleysia
Publiée le
AWS Cloud
Azure DevOps
Django

1 an
Grenoble, Auvergne-Rhône-Alpes

🔎 Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! ⬇️ 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe

CDI

Offre d'emploi
Racing Data Processing Engineer

STHREE SAS pour COMPUTER FUTURES
Publiée le

70k-90k €
Signes, Provence-Alpes-Côte d'Azur

🛠️ Vos missions En tant que Racing Data Processing Engineer , vous jouerez un rôle clé dans le développement de nos stratégies IT et dans l'exploitation des données de course pour améliorer nos performances. Principales responsabilités : Concevoir, développer et maintenir des pipelines de données efficaces et évolutifs pour traiter les volumes importants issus des voitures et des courses. Garantir l'intégrité, la cohérence et la qualité des données grâce à des systèmes de validation et de surveillance automatisés. Collaborer avec des équipes pluridisciplinaires pour transformer les besoins métiers en solutions data performantes. Préparer et présenter des rapports techniques détaillés, des spécifications et des présentations aux parties prenantes.

Freelance

Mission freelance
Développeur Back Data

Cherry Pick
Publiée le
Shell
SQL

12 mois
550-600 €
Paris, France

Les livrables sont Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés Comprendre l'implémentation technique et les implémenter si nécessaire Description détaillée OS : Avoir une bonne connaissance d'Unix Z/OS : Avoir des connaissances du Mainframe de façon à pouvoir : Analyser/modifier des JCL et pouvoir Modifier/charger des fichiers MVS Connaitre l'ordonnanceur OPC Shell : Pouvoir analyser/modifier des scripts shell réalisant des opérations complexes : Chargement des fichiers dump/plat/MVS données en BDD Export de données de la BDD vers des dump et/ou fichiers plats Récupération des fichiers depuis FTP/SFTP Envoi des fichiers vers FTP/SFTP SQL : Avoir un niveau expert pour comprendre et mettre en oeuvre des requêtes SQL complexes BDD : Oracle Aussi, une connaissance de la suite BI d'Oracle Discover sera un plus Transverse : Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés et en comprendre l'implémentation technique et les implémenter si nécessaire La personne sera principalement amenée à travailler en mode RUN : Analyse des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Des évolutions de scripts SQL/Shell existants sont demandées de temps en temps par le métier Le périmètre fonctionnel couvre quasiment tout l'éventail du retail : de la logistique jusqu'à la sortie de caisse Données : logistiques, référentiel, commandes, ventes, achats, promotion.. pour des magasins alimentaires et non alimentaires (équipement de la maison) en passant par des données financières de types factures, impayés. Compétences techniques : Shell - Expert - Impératif SQL - Expert - Impératif OS - Confirmé - Important Z/OS - Confirmé - Important

Freelance

Mission freelance
Customer Success Engineering - Architecte GCP - Genie civile - Full remote (H/F)

EASY PARTNER
Publiée le
CRM
Google Cloud Platform (GCP)
Support informatique

6 mois
490-550 €
Paris, France

Pour répondre à une demande croissante et spécifique du domaine applicatif lié au support client, nous recherchons un consultant en ingénierie de la réussite client pour un renfort ponctuel jusqu'à la fin de l'année 2025. ## Missions Assurer le support de niveau 3 et le conseil en architecture GCP pour les utilisateurs internes. Collaborer avec les équipes engineering et customer support pour définir et implémenter des stratégies cloud. Participer aux activités transverses, telles que la sécurité réseau et le cloudsec. Être un interlocuteur clé pour les clients internes, assurant une communication fluide et efficace. Contribuer à la mise en place et au reporting hebdomadaire des différents chantiers en cours. Accompagner les processus d'intégration dans la refonte de l'activité Customer Success Engineering. Participer à des cérémonies trimestrielles de planification des releases. ## Stack technique GCP : architecture et support. Expérience en débuggage de niveau 3. Agile Methodology pour le développement et la gestion de projet. Interaction avec les systèmes de sécurité cloud (CloudSec) et réseaux (CyberSec). CRM pour le suivi client et le reporting

Freelance

Mission freelance
Data Engineer AWS Senior – (PySpark )

Cherry Pick
Publiée le
Amazon S3
Apache Spark
AWS Cloud

6 mois
520-590 €
Île-de-France, France

Contexte de la mission En renfort de l’entité Solutions Data , le Data Engineer Senior interviendra dans un environnement hybride Cloud / On-Premise (cible On-Premise) pour participer activement aux activités Run, Build, Expertise et Accompagnement . 🚀 Missions principales Participer à l’élaboration du design technique des produits logiciels. Contribuer à la recherche et mise en œuvre de solutions techniques adaptées. Prendre en charge une partie des développements . Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques). Collaborer avec l’ architecte Data pour l’intégration des produits dans le SI. Garantir la qualité des produits logiciels livrés. Accompagner les directions métiers dans la réalisation de leurs cas d’usage Data. 🔧 Compétences obligatoires Spark / Java (maîtrise avancée) Python (maîtrise avancée) SQL (maîtrise avancée) Cloud AWS : S3, Glue, Redshift, Step Functions, Lambda CI/CD : Git, Jenkins ETL : XDI et/ou ODI 🌟 Compétences souhaitées (atouts) Docker Terraform Power BI / Business Objects 📍 Localisation Mission basée à Châtillon (92) .

2003 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous