Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 409 résultats.
Freelance

Mission freelance
Développeur Python / AWS / PostgreSQL / Kafka (h/f)

emagine Consulting SARL
Publiée le

1 mois
550-650 €
92400, Courbevoie, Île-de-France
Introduction & Résumé Nous recherchons un Développeur Python expérimenté avec une expertise en PostgreSQL et Kafka. Le candidat idéal devra posséder un minimum de 10 ans d'expérience en développement logiciel, avec des compétences avérées en gestion technique et une expérience dans des environnements similaires. L'accent sera mis sur le développement de solutions robustes et performantes pour des secteurs tels que la finance de marché, le trading de matières premières ou l'énergie. Principales Responsabilités Développer et maintenir des applications logicielles performantes. Assurer la conception et l’optimisation des bases de données PostgreSQL. Élaborer des architectures logicielles solides basées sur des technologies modernes. Implémenter des systèmes orientés événements et gérer le flux de données. Développer des API et des pipelines de données optimisés. Participer à l’évolution et à l’amélioration continue des processus Agile. Assurer le suivi du cycle de vie du développement logiciel. Exigences Clés 10 ans d’expérience en développement logiciel. Expérience avancée en développement Python (6+ ans). Maîtrise de PostgreSQL et gestion des performances. Compréhension des architectures logicielles modernes. Expérience avec des systèmes de messaging et de streaming comme Kafka. Compétences en mise en œuvre d’API et de pipelines de données. Connaissance des méthodologies Agile. Pratique du cycle de vie du développement avec GitHub. Atouts Complémentaires Expérience dans le secteur de la finance de marché ou de l’énergie. Connaissance des systèmes RabbitMQ. Autres Détails Ce poste est basé dans un environnement dynamique et collaboratif. Les candidats doivent être disposés à participer à des projets intéressants allant du développement à la mise en production.
CDD
CDI
Freelance

Offre d'emploi
CHEF/DIRECTEUR de projets Sécurité - DLP & DATA PROTECTION - N3

KEONI CONSULTING
Publiée le
Big Data
Cybersécurité
Pilotage

18 mois
20k-60k €
100-600 €
Toulouse, Occitanie
CONTEXTE Objectif global : Piloter les chantiers du programme de sécurité Contrainte forte du projet : Le programme de sécurité est le plan stratégique Cyber du Groupe Le département DAS - Protection de la données de la Direction Sécurité recherche un chef de projet sécurité de formation ingénieur ou équivalente pour l'accompagner dans le delivery du chantier DLP & DATA PROTECTION du programme Cybersécurité . La mission s'inscrit dans la gouvernance globale du programme de Cybersécurité du groupe . MISSIONS Les principales activités seront les suivantes : - Organisation et animation des ateliers et des comités de pilotages avec les différents interlocuteurs du projet (Management, Direction Sécurité Groupe, établissement et filiales) - Gestion des planning et mise à jour de la roadmap - Pilotage du déploiement des différents programme dans les établissements - Support aux Product Owner et animation des rituels AGILE (Scrumaster) - Production des indicateurs et tableaux de bord de suivi de l'activité. Pour remplir cette mission les compétences suivantes sont demandées: - Gestion de projet Cybersécurité dans des environnement complexe - Expérience des méthodologie AGILE SCRUM et expérience Scrumaster - Bonnes connaissances en Cybersécurité et en particulier sur les risques associés aux métiers de la DATA - Compétences fonctionnelles et techniques sur les sujets Data Protection - Capacité à leader les ateliers sécurité si nécessaire et à présenter les bonnes informations aux comités de direction pour arbitrage. - Capacité à travailler en toute autonomies et sur de multiples sujets en parallèles. Les livrables sont - Pilotage du déploiement des différents programme dans les établissements - Gestion des planning et mise à jour de la roadmap - Production des indicateurs et tableaux de bord de suivi de l'activité. Compétences techniques Gestion de projet Cybersécurité - Confirmé - Impératif Connaissance métiers autour de la DATA - Confirmé - Important Travailler en toute autonomies - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif)
CDI

Offre d'emploi
Data Engineer dbt / Snowflake Senior (H/F)

Link Consulting
Publiée le
DBT
Snowflake

Bordeaux, Nouvelle-Aquitaine
Notre client, acteur international du secteur pharmaceutique, recherche un Data Engineer Senior dbt / Snowflake (H/F) afin de renforcer sa plateforme data analytique. Vos missions : Au sein d’une équipe data internationale, vous interviendrez sur : La conception et le développement de pipelines ELT performants La modélisation des données analytiques (faits, dimensions) L’optimisation des performances Snowflake et requêtes SQL La mise en œuvre des bonnes pratiques DataOps et CI/CD La gestion de la sécurité des données (RBAC, RLS, masquage dynamique) L’ingestion de données depuis des environnements cloud AWS La mise en place de tests de qualité et de monitoring data Les compétences techniques Snowflake (Time Travel, Zero Copy Cloning, Snowpipe) dbt (models, macros, tests, snapshots, DAGs) SQL avancé AWS S3 Git, CI/CD, automatisation DataOps
Freelance

Mission freelance
Consultant Python (Software Engineer Applied) PostgreSQL - AWS - Airflow

Celexio
Publiée le
AWS Cloud
Bash
CI/CD

6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Freelance
CDI

Offre d'emploi
 Data Scientist – IA (F/H)

K-Lagan
Publiée le
Big Data
Data science
IA

1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet en Data & IA donnait un vrai sens à votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets innovants où la Data et l’Intelligence Artificielle sont au cœur de la transformation des entreprises. Aujourd’hui, nous recherchons un·e Data Scientist – IA (F/H) pour rejoindre l’un de nos clients dans un environnement stimulant et orienté innovation. 🔍 Contexte Vous interviendrez sur des projets à forte valeur ajoutée, visant à exploiter la donnée pour améliorer la prise de décision, automatiser des processus et développer des modèles prédictifs . Vous évoluerez au sein d’équipes pluridisciplinaires dans un environnement agile. 🎯 Missions Concevoir, développer et déployer des modèles de Machine Learning / IA Analyser et exploiter des volumes de données complexes Participer à la définition des cas d’usage Data & IA Mettre en production les modèles et suivre leur performance Collaborer avec les équipes Data Engineering, BI et métiers Assurer la qualité, la robustesse et la fiabilité des modèles Contribuer à l’ amélioration continue des solutions IA
Freelance

Mission freelance
POT9054 - Un Consultant MES - DS APRISO

Almatek
Publiée le
AWS Cloud

6 mois
Le Havre, Normandie
Almatek recherche pour l'un de ses client, un Consultant MES - DS APRISO sur Le Havre. Contexte & Objectifs de la mission Le consultant interviendra sur : L’analyse de l’existant et des besoins métiers (production, qualité, maintenance, logistique) Le cadrage fonctionnel MES et le suivi métier L’accompagnement des métiers dans la projection des usages d’une ligne de production digitalisée La réduction des usages Excel et des saisies manuelles Le transfert de compétences vers les équipes internes Périmètre fonctionnel (exemples) Digitalisation de processus aujourd’hui manuels / Excel : Relevés de cotes produit et données process Rapports qualité (LICA, LIVA, PRID, essais) Gammes de retouche et récupération Calculs conditionnels de conformité produit Standardisation des flux de données : Conformité produit Traçabilité long terme Archivage client Analyses statistiques de process (SPC, Once SPC) Autres processus digitalisés : Maintenance niveau 1 & 2 réalisée par le producteur Prise et fin de poste Interaction étroite avec l’exécution des Ordres de Fabrication dans le MES Environnement technique MES : DS Apriso MCS : PTC ThingWorx ERP : SAP ECC6 EHP7 SP5 PLM : 3DEXPERIENCE Data Platform : AWS (plateforme interne) Middleware : MuleSoft Compétences attendues Techniques & fonctionnelles Architecture SI industriels (OT / IT) Projets MES intégrés ERP / PLM / MCS / SCADA Environnements industriels temps réel, qualité, traçabilité Soft skills Animation d’ateliers métiers Capacité de synthèse et de restitution Suivi de projet Force de proposition et adaptabilité Livrables attendus Spécifications fonctionnelles (anglais) Plans de tests (qualification, pré?prod, E2E) Plans d’interfaçage Documentation de formation & modes opératoires PCA Suivi des tickets et ajustements fonctionnels Feuille de route projet et recommandations data
Freelance

Mission freelance
Data Governance Manager

Codezys
Publiée le
Conduite du changement
Data governance
Data management

6 mois
330-400 €
Bordeaux, Nouvelle-Aquitaine
Objectifs de la prestation Dans le cadre de la consolidation de sa gouvernance data, l'entreprise souhaite renforcer et structurer ses pratiques en s'appuyant sur un environnement technologique avancé, comprenant les plateformes Snowflake, Power BI et Datahub. Pour cela, l'équipe Data Management, composée de 4 professionnels, recherche un expert transverse afin de piloter la structuration, le déploiement et l'animation de la gouvernance opérationnelle. Mandat confié Déploiement du modèle de Data Stewardship Clarifier les rôles, périmètres et rituels entre Data Owners, Data Stewards et équipes techniques. Créer des kits d'onboarding, des standards et des supports pour accompagner les Data Stewards dans leur mission. Lancer et animer la communauté de Data Stewards afin de promouvoir une gouvernance partagée et efficace. Adoption & Data Catalog Renforcer l'adoption du Data Catalog (Datahub) et promouvoir les bonnes pratiques de gouvernance associées. Accélérer la documentation des assets data prioritaires pour assurer une meilleure compréhension et exploitation des données. Étendre la couverture du catalogue aux traitements d'intelligence artificielle (IA), intégrant ainsi la gouvernance dès la conception. Animation & transverse Organiser des ateliers avec les utilisateurs pour favoriser l'appropriation des outils et des méthodes de gouvernance. Faire émerger les irritants et structurer un backlog transverse pour répondre aux enjeux opérationnels. Intégrer la gouvernance lors des phases de cadrage des projets, en adoptant une approche 'governance by design'. Réactiver les communautés existantes, notamment les référents Power BI, afin de maintenir une dynamique de partage et de collaboration. Profil recherché Le candidat idéal devra posséder une expertise transverse en gouvernance data, avec une capacité à intervenir à la fois au niveau stratégique et opérationnel. Il devra démontrer des compétences en animation de communautés, en structuration de processus et en animation d'ateliers, tout en étant capable de travailler en étroite collaboration avec les équipes techniques et métier. Les propositions devront détailler la méthodologie proposée pour atteindre ces objectifs, ainsi que la démonstration de capacités similaires dans des environnements complexes et structurés.
Freelance

Mission freelance
Data Architecte AWS / Iceberg

ARGANA CONSULTING CORP LLP
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Freelance
CDI
CDD

Offre d'emploi
Workplace Engineer Lead Expert (Power Platform)

RIDCHA DATA
Publiée le
IA Générative
ITIL
Power Platform

1 an
Paris, France
🎯 Contexte Dans le cadre du programme Microsoft 365 GenAI & Automation Products , le client souhaite renforcer ses équipes avec un expert Power Platform afin d’accompagner le développement, la gouvernance et l’adoption des solutions au sein d’un environnement international complexe. 🚀 Missions principales Concevoir et développer des solutions sur Microsoft Power Platform (Power Apps, Power Automate, Dataverse) Mettre en place des applications (model-driven & canvas) adaptées aux besoins métiers Configurer : Modèles de données Sécurité Processus métiers Assurer : Performance Scalabilité Sécurité des solutions Implémenter des pipelines DevOps et gérer le cycle de vie des applications Développer des automatisations, intégrations et visualisations avancées Accompagner les équipes métiers (conseil & bonnes pratiques) Contribuer à la gouvernance et à l’adoption de la plateforme Participer à la mise en place de solutions via Microsoft Copilot Studio Gérer les incidents et demandes (ITIL) Travailler dans un environnement agile et international
Freelance

Mission freelance
Senior Architect (H/F) - Environnement Anglophone

RIDCHA DATA
Publiée le
API
SIRH

1 an
Paris, France
Dans le cadre d’un programme de transformation à grande échelle, une mission stratégique est ouverte autour de la définition d’une architecture SIRH cible au sein d’un environnement international. 🎯 Objectifs de la mission : • Analyser l’architecture SIRH existante • Définir une architecture cible (fonctionnelle & technique) • Concevoir des modèles d’intégration sécurisés et efficaces • Contribuer à une roadmap de transformation alignée avec les enjeux métier et IT • Collaborer avec des équipes transverses (IT, métier, sécurité, conformité…)
Offre premium
Freelance

Mission freelance
Chef de projet Flux/Data

Come Together
Publiée le
Gestion de projet

1 mois
Nord, France
Nous recherchons pour un grand compte de la région un chef de projet flux/data Mission : Pilotage des projets de mise en place de flux de données en provenance de systèmes industriels. Principales tâches de la mission - Accompagner les interlocuteurs métier dans la définition des besoins d’export. - Piloter les projets de mise place de flux DATA en provenance de systèmes industriels en lien avec les experts métiers, les éditeurs de solutions et les équipes IT - Produire l’ensemble des livrables en accord avec la méthodologie Projet du client. - Documenter et industrialiser dans l’équipe RUN afin d’en sécuriser la maintenance.
Freelance
CDI

Offre d'emploi
Ingénieur Plateforme Cloud / Disaster Recovery - AWS Certified Solutions Architect – Professional

CELAD
Publiée le
AWS Cloud
Terraform

1 an
70k-85k €
600-700 €
Paris, France
Contexte de la mission Dans le cadre du renforcement de la résilience d’une plateforme cloud stratégique, nous recherchons plusieurs Ingénieurs Plateforme Cloud pour concevoir et déployer une solution de Disaster Recovery de type Warm Pilot sur AWS. Vous interviendrez sur un environnement à forte criticité, avec des exigences élevées en matière de disponibilité, sécurité, automatisation et excellence opérationnelle . L’objectif : construire une capacité de reprise robuste, testable et industrialisée, au cœur de la plateforme. Vos missions Vous serez au centre de la stratégie de continuité d’activité et interviendrez sur des sujets à fort impact : Analyser et challenger l’architecture DR existante (failover, failback, réplication, orchestration) Concevoir et mettre en œuvre une solution Warm Pilot adaptée aux workloads critiques Industrialiser les déploiements via Infrastructure as Code (Terraform / Terragrunt) et GitOps (ArgoCD) Automatiser les mécanismes de reprise (bascule, synchronisation, validation) Définir les procédures opérationnelles (runbooks, tests DR, scénarios de reprise) Identifier les risques techniques : dépendances, points de défaillance, limites opérationnelles Collaborer avec les équipes plateforme, sécurité et applicatives pour garantir la cohérence globale
CDI
Freelance

Offre d'emploi
Data Engineer Python

Signe +
Publiée le
Python

24 mois
45k-50k €
322-500 €
Lyon, Auvergne-Rhône-Alpes
Missions : Développer et maintenir des produits data avec des contrats clairement définis. Concevoir et maintenir des pipelines de données batch et event‑based. Construire des pipelines Polars hautement performants. Supporter et optimiser des workflows à grande échelle sur Databricks. Mettre en place des processus robustes d'ingestion, de transformation et de validation des données, en visant performance, scalabilité et résilience. Garantir une haute qualité de données grâce à des validations et des tests automatisés. Gérer les composants de stockage et data lake de Azure Cloud conformément aux standards internes. Contribuer à l'automatisation CI/CD GitLab et assurer une haute qualité du code Python produit. Compétences : Forte expertise en Python (clean architecture, performance, tests). Expérience dans la création de data pipelines en Python. Expérience avec des bibliothèques de traitement de données : Polars, Pandas, Databricks, DBT, etc. Maîtrise d'outils d'orchestration de workflows : Prefect, Airflow, Dagster… Solide compréhension du data modeling et du design de schémas. Connaissance des bonnes pratiques d'ingénierie logicielle : CI/CD, code review, tests automatisés… Soft skills : Excellentes compétences en résolution de problèmes, autonomie, envie d'apprendre. Forte attention portée à la qualité et à la fiabilité des données. Aisance dans des environnements d'ingénierie collaboratifs. Capacité à documenter et communiquer clairement des concepts techniques. Les compétences techniques priment sur le nombre d'années d'expérience. 2J TT/semaine Compétences techniques requises : Python Azure Databricks CICD Pandas GitLab
Freelance
CDI

Offre d'emploi
Data Architect (HR Data Platform)

Izyfree
Publiée le
Data Engineering
Data governance
Finance

1 an
40k-45k €
400-500 €
Lille, Hauts-de-France
Nous cherchons un data architect pour intégrer la plateforme HRDP (Ressources Humaines): Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme Chargée de recrutement en charge du besoin: Audrey Levy Chargée de recrutement 96/104, avenue Charles de Gaulle – 92200 Neuilly sur Seine Tél : 01.70.82.50.07
Freelance

Mission freelance
Data Engineer Python – Data Platform & Data Governance

Deodis
Publiée le
BI
Data Engineering
Data quality

1 an
340-500 €
Île-de-France, France
Dans le cadre de l’évolution de sa Data Platform, le client recherche un Data Engineer Python pour intervenir au sein de l’équipe DataHub Core Platform. La mission consiste à contribuer aux projets de migration vers une nouvelle plateforme, au développement de nouveaux cas d’usage BI ainsi qu’à la mise en place de workflows en Python. Le consultant participera également à des projets stratégiques tels que le Transaction Profiling, le Data Quality Framework (DQF) et le Data Lineage, avec pour objectif d’améliorer la qualité, la fiabilité et la traçabilité des données. Il sera aussi en charge du développement de modules Python mutualisés, réutilisables sur l’ensemble des projets data, dans un environnement dynamique et orienté gouvernance des données.
Freelance

Mission freelance
POT9074 - Un Concepteur et développeur Python, Angular, AWS Sur Bordeaux

Almatek
Publiée le
Python

6 mois
Bordeaux, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients ,Un Concepteur et développeur Python, Angular, AWS Sur Bordeaux Description détaillée : Pour un client majeur ,expertise autour des solutions Python, Angular, AWS pour le cadrage, la conception, la réalisation, l'intégration, et l'exploitation d'applications dans un environnement DevOps et Agile. Il est également attendu l'accompagnement de la squad pour les enjeux techniques et d'architecture des applications. Compétences techniques Python - Expert - Impératif Angular - Expert - Impératif AWS - Expert - Impératif Indus DevOps & IA - Expert - Impératif Le livrable est: Expertise, Conception, Réalisation, Accompagnement Définition du profil: À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. En générale, nécessite un minimum de + de 10 ans d'expérience

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2409 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous