L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 408 résultats.
Offre d'emploi
Chef de projet IT
Publiée le
45k-50k €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Boulogne-Billancourt, un Chef de projet IT H/F dans le cadre d'un CDI. En collaboration avec le Directeur de projet, et les chefs de projet technique, vous serez en charge : De la gestion de projets : Animation, coordination : * Définition avec les clients des périmètres projet, expression des besoins, spécifications, planification * Workshops Exécution, réalisation * Configuration des solutions et gestion des données * Integrations Custom (HTML/CSS, JS, C#, SQL) Des missions de conseil : * Data analyse * PRM / CRM * Acquisition / Fidélisation / Rétention * Marketing automation * Lead generation * Email marketing
Mission freelance
Data Engineer / Analytics Engineer Microsoft Fabric
Publiée le
Microsoft Fabric
6 mois
450-560 €
Paris, France
Télétravail partiel
Contexte : Notre client, un grand établissement financier, recherche un Data / Analytics Engineer spécialisé sur l’écosystème Microsoft Fabric pour intervenir dans un projet stratégique de migration de Synapse vers Fabric. Le contexte fonctionnel est très novateur, il permet le suivi de l'ensemble du processus d'achat de l'entreprise. La mission, d’une durée initiale de plus de 6 mois et reconductible, s’inscrit dans un programme long terme de modernisation des plateformes data & analytics. Missions principales : Le consultant interviendra en tant que Data Engineer / Analytics Engineer et aura pour responsabilités : Concevoir, développer et maintenir des pipelines de données dans Azure Data Factory et Microsoft Fabric Data Factory. Accompagner la migration des pipelines Synapse vers Fabric Data Factory. Migrer les workloads SQL Serverless de Synapse vers un Lakehouse Fabric. Participer à la modélisation des données et à l’optimisation des flux pour des usages analytiques et reporting. Contribuer à l’industrialisation et à la mise en place de bonnes pratiques (performance, qualité, sécurité). Collaborer avec les équipes métiers et BI pour assurer la bonne alimentation des modèles Power BI. Rédiger la documentation technique et transférer les compétences aux équipes internes. Compétences recherchées : Compétences principales (indispensables) : Microsoft Fabric (Data Factory, Lakehouse, OneLake). Azure Data Factory (ADF). Synapse Analytics (pipelines & SQL Serverless). Power BI (modélisation, intégration des datasets). Compétences secondaires (atouts) : Python pour l’automatisation et la transformation des données. PowerShell pour le scripting et l’automatisation des environnements Azure. Profil recherché : Minimum 3 à 5 ans d’expérience en tant que Data Engineer / Analytics Engineer. Solide expérience dans la migration ou la mise en place de solutions cloud data Microsoft. Expérience dans des environnements grands comptes ou secteur financier appréciée. Capacité à travailler en mode projet (agilité, collaboration avec plusieurs équipes). Bonnes compétences de communication et capacité à vulgariser les enjeux techniques auprès des métiers. Informations pratiques : Lieu : Paris / Île-de-France. Télétravail : jusqu’à 3 jours par semaine. Durée : mission longue (> 6 mois), reconductible. Démarrage : dès que possible. TJ : 550€ Merci de faire parvenir vos CV à :
Mission freelance
POT8700 - Un Data Engineer sur Clermont-ferrand
Publiée le
Microsoft Power BI
2 mois
280-430 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-ferrand. Descriptif : Le Data Engineer développe, construit et maintient des infrastructures de données d'un point de vue système et sécurité. Il s'assure de la collecte, du stockage et de l'exploitation des flux de données répondant aux enjeux de l'entreprise. Compétences techniques : Data engineer - Confirmé - Important Connaissances BI / Data - Confirmé - Important Connaissances linguistiques : Anglais Courant (Impératif) Français Courant (Secondaire)
Offre d'emploi
Staff Engineer - Fintech / Paiement
Publiée le
50k-85k €
75001, Paris, Île-de-France
📍 Localisation : Paris 🏡 Présence sur site : 5 jours/semaine pendant 6 mois, puis 4 jours/semaine (non négociable) 📅 Contrat : CDI 💰 Rémunération : selon profil 🕐 Disponibilité : immédiate de préférence mais possibilité d'attendre Votre rôle En tant que Staff Engineer, vous jouez un rôle clé dans la structuration technique de la plateforme. Vous intervenez sur l'architecture, le développement backend, les bonnes pratiques et l'accompagnement technique des équipes, sans responsabilités managériales. Vos missions Piloter l'architecture technique des solutions financières critiques, en garantissant scalabilité, sécurité et conformité. Développer les composants backend critiques (Python), gérer les releases. Définir les bonnes pratiques, mentorer les développeurs, rédiger les tickets. Collaborer avec les équipes produit et mobile pour aligner vision métier et exécution technique. Intervenir ponctuellement sur des sujets DevOps et infrastructure (Terraform, AWS). 40-50% : Développement backend en Python, gestion des releases. 25% : Architecture, rédaction des tickets, coaching technique. 25% ou moins : Sujets DevOps et infrastructure (Terraform, AWS). Profil recherché Les critères suivants sont obligatoires pour que le profil soit retenu : A minima 6 à 8 ans d'expérience en développement applicatif et DevOps, avec des projets concrets. De préférence Python/Terraform. Maîtrise de Python . Expérience en startup ou scale-up (au moins 1 à 2 ans). Compréhension des concepts comptables : TVA, comptes comptables, logique de flux financiers. Expérience de collaboration avec des équipes mobiles codant en natif (minimum 2 ans). Les éléments suivants sont fortement appréciés : Expérience dans le secteur du paiement . À défaut, une expérience en banque ou finance est bienvenue. Stack technique Backend : Python/Django Frontend : TypeScript/React Infra : AWS, Terraform Mobile : Kotlin (Android), Swift (iOS)
Mission freelance
GenAI Platform Software Engineer /Ingénieur logiciel IA Confirmé-Vorstone - Paris
Publiée le
AI
API
API REST
1 an
550-700 €
Paris, France
Télétravail partiel
GenAI Platform Software Engineer Vorstone recherche un Ingénieur logiciel applicatif intégration GenAI Platform - Cloud GCP, DevOps, Python, APIs, intégration, pour un de ses clients basé à Paris. La mission s’inscrit dans le cadre du développement d’une plateforme IA interne visant à industrialiser les cas d’usage métiers autour de la GenAI. Initialement déployée via PrismAI (SaaS), la plateforme sera internalisée d’ici fin 2025 sur GCP. L’équipe en place recherche un Ingénieur applicatif intégration GenAI Platform pour contribuer à la montée en puissance de la solution et préparer les prochaines évolutions prévues sur la roadmap 2026.
Mission freelance
Data Engineer Confirmé – GCP / DBT / Power BI
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
3 mois
100-430 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Data Engineer Confirmé pour intervenir chez l’un de nos clients dans le cadre de la mise en place et l’industrialisation d’une plateforme data moderne sur Google Cloud Platform . Missions principales : Conception et développement de pipelines de données sur GCP. Modélisation et transformation des données avec DBT / SQLMESH . Mise en place de dashboards et reporting via Power BI . Optimisation des performances et bonnes pratiques de CI/CD. Collaboration étroite avec les équipes Data, BI et métiers.
Offre d'emploi
Data Engineer (H/F)
Publiée le
ServiceNow
Snowflake
6 mois
54k-64k €
400-470 €
Paris, France
Télétravail partiel
CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur de l’hôtellerie ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Data Engineer (H/F) pour rejoindre une équipe dynamique. 👈 Vous interviendrez dans le cadre du renforcement des capacités analytiques autour des processus ITSM afin de mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake 🔸 Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management 🔸 Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) 🔸 Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques 🔸 Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité 🔸 Documenter le pipeline, les schémas de données et les points de reprise
Mission freelance
[SCH] Prompt Engineer – Toulouse - 1024
Publiée le
3 mois
300-400 €
Toulouse, Occitanie
Contexte : Mission Data / IA / Innovation orientée Prompt Engineering. Intervention au sein d’une petite équipe sur une plateforme d’hypervision et des cas d’usage IA variés (texte, résumé, classification, extraction). Missions : -Concevoir, tester, optimiser des prompts pour LLMs (GPT, Claude, Mistral, etc.) selon les cas d’usage : génération, résumé, classification, extraction. -Collaborer avec produit, marketing, support et dev pour traduire les besoins métiers en instructions exploitables par les modèles. -Expérimenter & veiller : zero-shot, few-shot, chain-of-thought, outils/LLMs/techniques émergentes. -Documenter & standardiser : bibliothèque de prompts réutilisables, bonnes pratiques. -Évaluer les performances : définir métriques, détecter biais/hallucinations/erreurs, proposer des mitigations. -Conseil et accompagnement des équipes sur l’adoption de l’IA générative. Objectifs & livrables : -Prompts efficaces et documentés + bibliothèque réutilisable. -Rapports d’évaluation (métriques, erreurs, biais) & recommandations d’amélioration. -Guides d’intégration / d’usage (patterns, garde-fous, checklist qualité). Profil recherché : - >8 ans d’expérience en data / logiciel, dont ≥2–3 ans sur des projets IA/LLM concrets. -Maîtrise des patterns de prompt engineering (zero/few-shot, CoT, ReAct, outils/fonctions, contraintes, garde-fous). -Solide pratique Python pour prototyper, tester et évaluer (datasets, métriques offline/online, A/B). -Capable d’industrialiser : versionner prompts, tracer expériences, packager en services (API), intégrer dans des workflows low/no-code.
Offre d'emploi
Staff Engineer - Fintech / Paiement
Publiée le
50k-85k €
75001, Paris, Île-de-France
📍 Localisation : Paris 🏡 Présence sur site : 5 jours/semaine pendant 6 mois, puis 4 jours/semaine (non négociable) 📅 Contrat : CDI 💰 Rémunération : selon profil 🕐 Disponibilité : immédiate de préférence mais possibilité d'attendre Votre rôle En tant que Staff Engineer, vous jouez un rôle clé dans la structuration technique de la plateforme. Vous intervenez sur l'architecture, le développement backend, les bonnes pratiques et l'accompagnement technique des équipes, sans responsabilités managériales. Vos missions Piloter l'architecture technique des solutions financières critiques, en garantissant scalabilité, sécurité et conformité. Développer les composants backend critiques (Python), gérer les releases. Définir les bonnes pratiques, mentorer les développeurs, rédiger les tickets. Collaborer avec les équipes produit et mobile pour aligner vision métier et exécution technique. Intervenir ponctuellement sur des sujets DevOps et infrastructure (Terraform, AWS). 40-50% : Développement backend en Python, gestion des releases. 25% : Architecture, rédaction des tickets, coaching technique. 25% ou moins : Sujets DevOps et infrastructure (Terraform, AWS). Profil recherché Les critères suivants sont obligatoires pour que le profil soit retenu : A minima 6 à 8 ans d'expérience en développement applicatif et DevOps, avec des projets concrets. De préférence Python/Terraform. Maîtrise de Python . Expérience en startup ou scale-up (au moins 1 à 2 ans). Compréhension des concepts comptables : TVA, comptes comptables, logique de flux financiers. Expérience de collaboration avec des équipes mobiles codant en natif (minimum 2 ans). Les éléments suivants sont fortement appréciés : Expérience dans le secteur du paiement . À défaut, une expérience en banque ou finance est bienvenue. Stack technique Backend : Python/Django Frontend : TypeScript/React Infra : AWS, Terraform Mobile : Kotlin (Android), Swift (iOS)
Mission freelance
Data Engineer GCP - Rennes
Publiée le
Agile Scrum
Apache Airflow
BigQuery
12 mois
400-540 €
35200, Rennes, Bretagne
Télétravail partiel
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Offre d'emploi
Data Engineer
Publiée le
Azure
DevOps
Microsoft Fabric
6 mois
Paris, France
Télétravail partiel
Mission Data Engineer Client: Secteur Minéraux Localisation : Paris, Aix-en-Provence, Strasbourg ou Lyon Télétravail : 1 à 2 jours par semaine Durée : 6 mois minimum (renouvelable) Démarrage : Dès que possible Équipe à taille humaine Contexte de la mission Dans le cadre d’un vaste programme de transformation data, notre client – un acteur international du secteur des minéraux – déploie une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination du programme, Tech Enablers : mise en place des briques techniques de la plateforme, Data Use Cases : livraison de cas d’usage métiers concrets à forte valeur ajoutée. L’objectif est double : Livrer 2 à 3 cas d’usage prioritaires , Implémenter une plateforme data moderne , basée sur Microsoft Fabric et intégrée à l’écosystème Azure , tout en instaurant une gouvernance agile (Scrum, PI Planning). Rôle : Data Engineer Vous interviendrez au sein de l’équipe Data pour : Concevoir et développer les pipelines d’ingestion, de transformation et de mise en qualité des données , Gérer les flux de données batch et streaming , Optimiser les performances et la robustesse des traitements, Collaborer avec les équipes architecture , delivery et use cases pour assurer la cohérence de bout en bout, Contribuer à la mise en place des bonnes pratiques DevOps / DataOps dans un environnement agile. Compétences recherchées Techniques : Développement de pipelines de données (batch & streaming), Formats : Parquet, JSON, Delta, Maîtrise de l’écosystème Azure / Microsoft Fabric , Bon niveau en SQL et Python , Outils : Spark , Databricks , Azure Data Factory , Git , Docker , Airflow , Méthodologiques : Environnement Agile / Scrum , avec participation aux cérémonies PI Planning , Connaissance des pratiques DevOps / DataOps , Langues : Anglais courant obligatoire (environnement international). Profil recherché Data Engineer confirmé , avec 3 à 5 ans d’expérience dans des environnements cloud et data modernes, Esprit d’équipe, sens de l’organisation, autonomie et rigueur.
Offre d'emploi
Data Engineer (Bordeaux)
Publiée le
BI
Python
Snowflake
3 mois
40k-48k €
100-370 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data
Mission freelance
Data Engineer Talend / GCP
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend
3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Offre d'emploi
Data Engineer
Publiée le
Collibra
Python
Snowflake
6 mois
Liège, Belgique
Télétravail partiel
Nous recherchons un Senior Data Engineer expérimenté pour rejoindre notre équipe Data. La personne sera responsable de la conception, du développement et de la maintenance de solutions de données robustes et scalables, tout en assurant la qualité et la gouvernance des données. Le candidat idéal maîtrise les environnements cloud, les pipelines de données et les outils de gestion des données modernes. Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables pour ingestion, transformation et intégration de données. Assurer la qualité, la sécurité et la gouvernance des données en collaboration avec les équipes Data & BI. Participer à la conception d’architectures data modernes sur Snowflake et autres plateformes cloud. Développer des solutions ETL/ELT avec Talend et automatiser les processus de traitement des données. Intégrer et orchestrer des flux de données en temps réel avec Kafka. Collaborer avec les équipes métiers pour comprendre les besoins en données et proposer des solutions adaptées. Mettre en place et suivre les métriques de performance des pipelines de données. Assurer la documentation technique et le respect des bonnes pratiques de développement. Compétences techniques requises Bases de données & Cloud : Snowflake, SQL avancé, modélisation de données, optimisation des requêtes. Gouvernance & Qualité des données : Collibra, gestion des métadonnées, data lineage. Langages de programmation : Python pour le développement de scripts ETL, automatisation et analyses. ETL / Intégration : Talend, conception et maintenance de flux ETL/ELT. Streaming & Event-driven : Kafka, gestion de flux en temps réel. Autres : Git, CI/CD, tests automatisés, bonnes pratiques de développement logiciel. Compétences comportementales Forte capacité analytique et rigueur. Autonomie et prise d’initiative sur les projets techniques. Excellente communication pour travailler avec des équipes transverses. Capacité à mentor et encadrer des profils juniors. Profil recherché Bac +5 en Informatique, Data ou équivalent. Minimum 5 ans d’expérience en Data Engineering dans des environnements complexes. Expérience avérée sur Snowflake, Talend, Kafka et Python. Bonne connaissance des processus de gouvernance et de qualité des données avec Collibra. Maîtrise des concepts d’architecture data moderne et des bonnes pratiques DevOps pour pipelines data. Télétravail : 2 jour / semaine Langues : Français, Anglais
Mission freelance
Data Engineer
Publiée le
ETL (Extract-transform-load)
Linux
Microsoft Power BI
12 mois
360 €
Toulouse, Occitanie
Télétravail partiel
Contexte / mission : Nous recherchons un data engineer expérimenté avec des compétences en SQL, ETL et outils de reporting. Le domaine Cargo Datawarehouse charge et affine les données pour les entreprises. Intervention au sein d’une équipe de 8 personnes. Profil : Data Engineer Nombre d’années d’expérience : plus de 5 ans Attendus : Il/elle devra intervenir sur le backlog actuel du projet (corrections et nouvelles fonctionnalités). Les données Cargo pour les domaines suivants sont chargées dans l’entrepôt de données : Données de billetterie et de réservation Données financières Données opérationnelles Serait également apprécié : compétence à piloter des sous-projets au sein du domaine CARGO, sous la responsabilité du responsable de domaine. Quel défi à relever ? PowerBI et GCP à l’avenir.
Mission freelance
Data Engineer confirmé
Publiée le
Azure Data Factory
6 mois
400-500 €
Paris, France
Télétravail partiel
Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
408 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois