Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 654 résultats.
Freelance

Mission freelance
Data Engineer

Signe +
Publiée le
Database
ETL (Extract-transform-load)
SQL

2 ans
400-500 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients un Data Engineer. Contexte : Renforcement de l’équipe Data pour industrialiser et faire évoluer les environnements BI/ETL/Cloud (GCP BigQuery, Teradata, Informatica/IDMC, BO, Power BI) et soutenir les activités de delivery et de transformation. Mission & objectifs Concevoir, développer et industrialiser des pipelines de données robustes (batch/ELT). Garantir la qualité, la sécurité et la gouvernance des données (IAM, rôles, permissions). Moderniser les assets BI et modèles sémantiques (Power BI, Business Objects). Contribuer à l’ automatisation et à l’ infrastructure as code (Terraform). Accompagner les équipes Métiers/Tech dans l’usage des plateformes data (BigQuery, Teradata, Unix/Linux). Participer à la documentation et à la montée en compétence de l’équipe.
CDI

Offre d'emploi
Tech Lead / Architecte Data & IA - Senior

█ █ █ █ █ █ █
Publiée le
CI/CD
Ocaml
Python

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Développeur React Native / Data Engineer F/H

SMARTPOINT
Publiée le
Databricks
React Native
Spark Streaming

12 mois
100-450 €
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un profil hybride associant : Une expertise confirmée en développement mobile React Native, et une compétence en Data Engineering sur Azure / Databricks. La mission repose principalement sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail sur la partie front, le consultant pourra également intervenir sur les traitements back/data, notamment sur les pipelines et notebooks Databricks sur le cloud Azure. Informations complémentaires : - Démarrage souhaité : ASAP - Conscients que ce type de profil hybride est rare, nous vous remercions de ne proposer que des candidats répondant strictement aux critères décrits dans la fiche de mission. - 3 jours obligatoire sur site ANALYSE : Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT : Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION : Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE : Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production Compétences techniques : React Native - Expert - Impératif Databricks - Confirmé - Impératif Spark - Confirmé - Impératif SQL - Confirmé - Impératif
CDI
Freelance

Offre d'emploi
Ingénieur DevOps H/F

Le Groupe SYD
Publiée le
Ansible
Azure DevOps Services
Docker

12 mois
42k-52k €
450-500 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟 📍Lieu : Niort (79) 🏠 Télétravail : 3 jours par semaine 📝Contrat : CDI ou Freelance 👉 Contexte client : Tu rejoins un acteur majeur du secteur Assurance , engagé dans une transformation digitale ambitieuse pour moderniser ses plateformes et accélérer la livraison de services. L’objectif : automatiser, sécuriser et fiabiliser les déploiements applicatifs dans un environnement Cloud et hybride. En tant qu’ Ingénieur DevOps , tu seras au cœur des projets d’industrialisation et d’automatisation, en collaboration avec les équipes de développement et d’exploitation pour fluidifier les livraisons et garantir la performance des environnements. Tu auras pour missions de : Concevoir et mettre en œuvre des pipelines CI/CD robustes Automatiser les déploiements et les opérations via des scripts et outils DevOps Superviser et optimiser les environnements Cloud et On-Premise Garantir la sécurité et la conformité des infrastructures Collaborer avec les équipes de développement et d’exploitation pour fluidifier les livraisons Participer à l’amélioration continue des processus et des outils Stack technique : GitLab CI, Jenkins, Azure DevOps, Docker, Kubernetes, Terraform, Ansible, Linux, Cloud (Azure/AWS/GCP)
Freelance

Mission freelance
Data Quality Manager

CAT-AMANIA
Publiée le
Apache Spark
AWS Cloud
Collibra

1 an
100-490 €
Lille, Hauts-de-France
VOS RESPONSABILITÉS PRINCIPALES Recueillir et évaluer les besoins en matière de qualité des données Accompagner et organiser des ateliers avec les data owners pour comprendre le cycle de vie des données et collecter les exigences en matière de qualité des données (règles, impacts de la non-qualité, parties prenantes, etc.) Interagir et se coordonner avec les autres parties prenantes du projet (Data Steward, Data Engineer,…) pour s’aligner sur les contrôles Vérifier et valider la pertinence des règles de qualité des données et leur faisabilité Documenter les règles de qualité dans le catalogue de données (Collibra) Mettre en oeuvre les normes et politique de qualité des données sur votre périmètre pour garantir l'opérabilité des données tout au long de leur cycle de vie dans l'entreprise Concevoir et mettre en œuvre des outils de contrôles et de visualisations de la qualité des données, y compris des alertes pour détecter les erreurs et les incohérences Mettre en œuvre et animer les processus de remédiation afin d’assurer l’amélioration continue du dispositif de qualité des données Développer et appliquer des stratégies pour l'amélioration continue de la qualité des données, en collaboration étroite avec les producteurs de données et les équipes techniques. Sensibiliser les parties prenantes internes à l'importance de la qualité des données, en les formant aux bonnes pratiques et en assurant un suivi régulier. Implémenter des outils pour automatiser les tâches de contrôle et de correction des données. Contribuer et participer activement à la communauté des Data Quality Manager
Freelance

Mission freelance
[LFR] Ingénierie Build Data Security Expérimenté à Guyancourt - 1298

ISUPPLIER
Publiée le

10 mois
400-535 €
Guyancourt, Île-de-France
Secteur bancaire. Description et localisation Expertise en Data Security. Le client fournit à ses partenaires une gamme de services et solutions informatiques, est force de proposition et d’accompagnement dans leurs démarches d’innovation leur permettant de répondre à leurs besoins Métiers. Au sein du Cluster Corporate Investment Banking (CIB), dans le département Solutions IT, équipe OPEN, la mission d'expertise technique se déroulera sur le site de Saint-Quentin en Yvelines (SQY Park). Des déplacements ponctuels à Montrouge (Evergreen) sont à prévoir. Contexte Assurer l'évolution et le traitement de l'obsolescence des infrastructures de sécurité utilisées dans le monde entier par la banque d’investissement. Cette infrastructure permet de gérer les 25 000 postes de travail et les 10 000 serveurs de l’entité ; Administrer et faire évoluer l’offre de Data Security ; Participer aux efforts d’automatisation et de fiabilisation ; Réaliser des présentations techniques ; Assurer le support technique de niveau 3 auprès des équipes de RUN basées à Singapour ; Vous serez aussi amenés à rédiger des dossiers et des avis techniques, ainsi que des feuilles de route à destination des chefs de projet et des équipes opérationnelles devant mettre en œuvre et exploiter les solutions. La maitrise de l’anglais est donc essentielle. Vous serez amené à réaliser des astreintes et/ou opérations ponctuelles en HNO. Détails de la prestation En tant qu'expert Data Security, vos missions principales seront de : • Expertise technique sur les produits Symantec (SEP et DLP) ; • Expertise technique sur les produits Trend Micro (APEX, Deep Security et DDEI) ; • Expertise technique sur le produit Active Identity (HID) ; • Expertise technique sur le produit Fortra (ICAP Gateway) ; • Les astreintes (HNO, etc…) : Oui • La possibilité de renouvellement : Oui • Type de besoin : remplacement • Type de projet (support / maintenance / implementation /…) : Implémentation • Type de prestation (Client / Hybrid / Remote) : Client • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours / semaine
Freelance
CDI

Offre d'emploi
Data scientist IA générative

CAT-AMANIA
Publiée le
AWS Cloud
IA
Python

1 an
56k-58k €
460-510 €
Paris, France
Nous recherchons un Data Scientist pour renforcer l'équipe de notre client Data Science et Intelligence Artificielle. L'objectif est de poursuivre les travaux sur la "plateforme de services IA Générative" composée de plusieurs services IA destinés à des cas d'usages métiers portés par des projets. L'équipe est actuellement constituée de 3 Data Scientists et 2 DevOPS. Les services existants: - le service OCR Optical Character Recognition en mode synchrone - le service NLU Natural Language Understanding - le service KM Knowlekdge Management pour un chat bot Les sujets à venir: - déployer un service d'OCR asynchrone - utiliser les services OCR synchrones et/ou asynchrones pour les cas d'usages "carte d'identité", "factures", "passeport" - déployer un service lié à la lutte contre la fraude - déployer un service de catégorisation des documents
CDI

Offre d'emploi
Administrateur Base de Données (F/H)

Experis France
Publiée le

30k-36k €
Niort, Nouvelle-Aquitaine
Administrateur Base de Données (F/H) - Niort 📍 Niort 📝 CDI - Temps plein 💼 Salaire : 30 000 à 36 000 € brut/an selon expérience 🎯 Contexte Dans le cadre de projets stratégiques visant à renforcer l'efficacité, la performance et la sécurité des environnements data, nous recherchons un(e) Administrateur(trice) Base de Données. Vous interviendrez au cœur des systèmes d'information pour optimiser les bases existantes, sécuriser les données sensibles et contribuer à l'évolution globale de l'infrastructure de notre client. 🛠️ Vos missions principales En tant qu'Administrateur(trice) Base de Données, vous aurez pour responsabilités : 🔧 Administration & Maintenance Assurer l'administration quotidienne des bases de données (installation, configuration, mises à jour, maintenance). Surveiller la disponibilité, l'intégrité et les performances des environnements BD. Garantir la cohérence et la qualité des données. 🚀 Optimisation & Performance Optimiser les performances des bases existantes (requêtes, indexation, tuning). Identifier et résoudre les goulots d'étranglement. Proposer des améliorations continues pour renforcer l'efficacité du SI. 🔐 Sécurité & Conformité Participer au renforcement de la sécurité des données sensibles. Appliquer les bonnes pratiques en matière de sauvegardes, restaurations et gestion des accès. Contribuer aux audits et actions de conformité. 🤝 Support & Collaboration Collaborer étroitement avec les équipes techniques (développement, production, infrastructure). Apporter un support avancé pour résoudre des problématiques complexes liées aux bases de données. Participer activement aux projets d'évolution du SI. 🔄 Adaptation & Contribution aux projets Intervenir dans un environnement technique dynamique et en constante évolution. S'adapter aux nouveaux besoins métiers. Contribuer à la qualité, à la fiabilité et à la continuité de service des systèmes de gestion de données
CDI

Offre d'emploi
Data engineer informatica expérimenté H/F

TOHTEM IT
Publiée le

40k-45k €
Toulouse, Occitanie
Pour un client, nous recherchons un·e Data Engineer Informatica expérimenté·e . Tu interviens sur un environnement data structurant avec un objectif clair : challenger les modèles de données et les flux existants, les optimiser et les rendre plus robustes . Le contexte technique évolue vers Informatica Cloud : tu seras donc amené·e, au fil des sujets, à manipuler de plus en plus IICS en complément de PowerCenter. Tes missions Analyser et challenger les modèles de données Revoir les flux ETL Informatica pour : améliorer les performances simplifier les traitements renforcer la qualité des données Concevoir des solutions pérennes et industrialisées Intervenir sur des problématiques complexes de production Travailler avec les équipes métier, architecture et data Être force de proposition sur les choix techniques ➡ Dans le cadre de la mission, tu toucheras progressivement à : Informatica Cloud (IICS) nouveaux patterns d’intégration architectures data plus modernes
Freelance

Mission freelance
Data Engineer Azure Databricks

CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
Azure Synapse

3 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
Freelance

Mission freelance
POT8947 - Un Développeur Mobile / Data Engineering sur Chatillon

Almatek
Publiée le
SQL

6 mois
250-330 €
Châtillon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients Un Développeur Mobile / Data Engineering sur Chatillon. Description détaillée 1) Développement mobile -Assurer la maintenance évolutive et corrective d’une application mobile en React Native. -Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité). -Implémenter de nouvelles fonctionnalités et les tests associés, en suivant une démarche Clean Code (sécurité, maintenabilité). 2) Data Engineering -Concevoir, développer et implémenter des solutions Big Data Analytics. -Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake. -Développer des notebooks avancés sous Databricks (SQL, Framework Spark). -Rédiger la documentation technique (DAT, release notes, etc.). -Réaliser les tests unitaires et assurer la qualité des livrables. -Contribuer à la maintenance évolutive et corrective des traitements. -Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés. Profil recherché -Expérience confirmée en développement d’applications React Native en production (minimum 5 ans). -Expérience en Data Engineering sur Azure / Databricks / Spark / SQL (minimum 3 ans). -Maîtrise des APIs REST. -Bonne connaissance de Git et première expérience en CI/CD / DevOps. **Compétences techniques** -React Native – Expert – Impératif -Databricks – Confirmé – Impératif -Spark – Confirmé – Impératif -SQL – Confirmé – Impératif Localisation : Chatillon + 2 jrs de TT
CDI

Offre d'emploi
Business analyst (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum

Niort, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer - Azure / Databricks / Power BI

CHOURAK CONSULTING
Publiée le
Azure
Azure Data Factory
CI/CD

3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir au sein d’un acteur structuré du secteur des services, sur une plateforme data moderne basée sur Microsoft Azure . 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de faire évoluer et industrialiser une plateforme analytique reposant sur Azure & Databricks , avec une forte interaction avec les équipes BI et métiers. ⚙️ Missions principales Concevoir et développer des pipelines de données sur Azure. Mettre en œuvre des traitements et transformations sur Databricks (PySpark / SQL) . Modéliser et structurer les données pour la consommation BI. Collaborer avec les équipes Power BI pour optimiser les datasets. Participer à l’industrialisation (CI/CD, bonnes pratiques, documentation). Contribuer à l’amélioration continue de l’architecture data.
Freelance

Mission freelance
Business Analyst Compliance et légal - AML/MAD

OLYMPP
Publiée le
AML (Anti-Money Laundering)
Data management
Gouvernance, gestion des risques et conformité (GRC)

3 ans
400-560 €
Paris, France
Missions principales : 1. Surveillance et conformité AML/MAD Détection et gestion des alertes dans l’outil de monitoring. Définition et mise à jour des scénarios de détection. Intégration de nouvelles entités dans le dispositif. Optimisation des modèles, seuils et listes de contrôle. Support de production et suivi des anomalies. Animation de comités liés au dispositif AML/MAD. 2. Suivi des prestations éditeur Suivi des développements et production d’alertes. Gestion des incidents dans l’outil de suivi. Reporting régulier à la direction IT et animation des comités avec l’éditeur. 3. Criblage sanctions et KYC Suivi des opérations de criblage central et local. Reporting mensuel des résultats. 4. Pilotage transverse Suivi des projets IT, incidents et budgets. Participation à la validation des nouveaux projets. Coordination avec les métiers et les fournisseurs. Support de production et formalisation des comptes-rendus. 5. Support légal (10 % du temps) Participation ponctuelle à des missions légales et de conformité. Profil recherché : Connaissance AML/MAD et des outils de monitoring. Capacité à suivre des projets IT et à coordonner différents acteurs. Rigueur, sens de l’organisation et esprit de synthèse.
Freelance

Mission freelance
Data Engineer Snowflake - Lyon

Net technologie
Publiée le
Snowflake

3 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de la migration de BW vers Snowflake, les deux profils seront en charge de la migration des données SAP & BW vers Snowflake au sein d’une équipe d’une dizaine de personnes pour notre client. Tâches à réaliser : Concevoir et développer les pipelines d’ingestion et de transformation des données depuis SAP et BW vers la plateforme Snowflake. · Assurer la qualité, la cohérence et la sécurité des données tout au long du processus de migration. · Collaborer étroitement avec les équipes fonctionnelles et techniques pour comprendre les besoins métiers et adapter les solutions data. · Optimiser les performances des flux de données et veillez à leur scalabilité dans l’environnement Snowflake. · Participer à la documentation technique et à la mise en place des bonnes pratiques autour des données. · Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration.
Freelance

Mission freelance
Architecte Data - Lyon

Cherry Pick
Publiée le
Apache Kafka
Apache Spark
Architecture

6 mois
700-870 €
Lyon, Auvergne-Rhône-Alpes
Architecte Data / Cloud Senior (Expert)🎯 Contexte & Enjeux Dans le cadre de la transformation de notre client (Secteur d' Assurance) vers un Système d’Information Data Centric , nous recherchons un(e) Architecte Data / Cloud Senior capable d’accompagner la modernisation de notre infrastructure Data On-Premise et Cloud. Cette transformation stratégique vise à bâtir un SI : Agile Évolutif Résilient Orienté données Aligné avec nos enjeux long terme L’expert(e) interviendra en transverse auprès des équipes MOA, Techlead, Développeurs et DBA afin de garantir une intégration fluide des architectures Data modernes. 🎯 Objectifs de la mission Évaluer l’architecture existante et recommander les meilleures pratiques Data / Cloud Concevoir et mettre en œuvre une architecture Data Centric robuste et scalable Définir et implémenter les patterns Data (Batch, Streaming, Event-driven, Microservices data, etc.) Assurer l’intégration cohérente des environnements On-Premise et Cloud Accompagner les équipes internes (MOA, Tech, DBA) Garantir la sécurité, la gouvernance et la performance des données Assurer le transfert de compétences Produire une documentation complète (HLD, LLD, DAT, schémas d’architecture) 📦 Livrables attendus Dossier d’architecture cible (HLD/LLD) Schémas d’urbanisation Data Blueprint Data/Cloud (multi-cloud / hybrid) Recommandations techniques formalisées Plan de migration On-Premise → Cloud Documentation des pipelines Data Guide de bonnes pratiques Support aux équipes techniques Plan de gouvernance et sécurité des données 🛠 Responsabilités principales Définir l’architecture Data (Batch & Streaming) Mettre en œuvre des pipelines temps réel (Kafka, Spark Streaming, Beam) Concevoir des architectures multi-cloud (AWS, GCP, Azure, Oracle Cloud) Intégrer les solutions NoSQL (CouchDB, MongoDB) Concevoir des architectures sécurisées (Keycloak, IAM, RBAC) Superviser les choix techniques liés aux bases Oracle Accompagner l’industrialisation sous OpenShift Garantir la performance, la scalabilité et la résilience 👤 PROFIL RECHERCHÉ🎓 Formation Bac+5 (Ingénieur / Master en Informatique / Data / Cloud) Minimum 8 à 10 ans d’expérience dont plusieurs années en architecture Data
5654 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous