Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 893 résultats.
Freelance
CDI

Offre d'emploi
Senior Data Engineer (5+ ans d'exp)

WINSIDE Technology
Publiée le
Azure
Databricks

3 ans
40k-60k €
100-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer Senior pour une grande entreprise internationale sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience professionnelle en tant que Data Engineer. tu as travaillé au moins 3 ans sur le cloud Azure. tu maîtrises Databricks, Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. tu es expert.e dans la conception et optimisation d'architectures data tu maîtrises la modélisation de données (schéma analytique, SCD, faits et dimensions). tu as déjà travaillé sur des outils de développement assistés par l'IA. tu as déjà implémenté des Data Quality. Stack supplémentaire démandée : Python, SQL, Git. Objectif principal du poste : Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Missions : Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards. Démarrage : mars 2026. TT: 2 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
CDI

Offre d'emploi
Product Owner Data F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
Java
JIRA

Noisy-le-Grand, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Offre premium
CDI
Freelance

Offre d'emploi
Ingénieur Réseau Datacenter & Cloud

VADEMI
Publiée le
Ansible
AWS Cloud
Azure

12 mois
42k-55k €
400-500 €
Essonne, France
Administrer Réseau LAN/WAN et Landing Zone Cloud Le livrable est : Schémas et principes des zones d'acostage Datacenter et Cloud Compétences techniques : Fabric VXLAN (Arista) - Expert - Impératif Protocole L2 (SPB, ...) et L3 (BGP, ...) - Expert - Impératif Cloud Landing Zone (AWS, GCP, Azure) - Expert - Impératif Firewall (Palo Alto, Fortinet, ...) et F5 LTM - Junior - Important Connaissances linguistiques : Anglais Professionnel (Secondaire) Description détaillée : Dans un contexte de migration du réseau de notre centre de données et des projets cloud, nous recherchons un ingénieur pour renforcer l'équipe en charge de la gestion du réseau du Datacenter et cloud : Mission : - Concevoir, planifier et mettre en œuvre des architectures réseau complexes répondant aux besoins opérationnels de l'entreprise. - Participer aux traitements des demandes ou projets des différents métiers et dans une approche de service - Contribuer à la mise à jour des outils, de la documentation interne et à l’automatisation des tâches récurrentes afin de réduire le RUN. - Suivre les tendances technologiques et proposer des améliorations continues pour optimiser ou réduire l'infrastructure réseau - Fournir un support technique et une expertise aux équipes internes en cas de problèmes complexes. Domaine de compétences : - Maîtrise des couches L2, L3 (MPLS, BGP, VxLAN,SDWAN), F5 LB, DNS - Expertise sur la partie sécurité : FW PaloAlto/Fortinet - Expertise sur la partie Cloud (AWS, GCP, Azure) - Connaissance avancée sur les outils d'automatisation (netbox, ansible, …) Vos atouts : Vous faites preuve d’organisation, de rigueur et appréciez le travail d’équipe et collaboratif Votre bon sens du relationnel sera un atout pour communiquer avec une grande diversité d’interlocuteurs Vous avez un sens de l’innovation et de la créativité.
Freelance

Mission freelance
ACHETEUR Domaine Market Data/s

WorldWide People
Publiée le
Pilotage

12 mois
Paris, France
ACHETEUR Domaine Market Data . Acheteur senior spécialisé dans les données de marché, avec une solide expérience auprès des fournisseurs de données financières et une excellente compréhension des cas d'utilisation en salle des marchés. Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
Freelance

Mission freelance
Data Architect - Lyon

Sapiens Group
Publiée le
Hadoop
Microsoft Power BI
MySQL

1 an
500-530 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du choix et de la mise en place de la nouvelle plateforme Data régime, le profil interviendra pour définir, concevoir et accompagner la construction de l'architecture cible Data de la fédération. Ses missions principales seront de : Définir l'architecture cible Data : concevoir l'architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data-Centric et définir les patterns d'intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l'architecture de la nouvelle plateforme Data : concevoir l'architecture technique globale de la plateforme, en intégrant l'écosystème existant (Teradata, Hadoop) et la stratégie d'évolution (cloud ou on-prem, gouvernance, scalabilité). Proposer la trajectoire d'évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d'intégration et l'architecture cible. Définition et formalisation des standards Data : définir les standards d'intégration, de transformation, de stockage et d'exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l'écosystème (outils d'ingestion, qualité, orchestrateurs, catalogage, gouvernance).
CDI
Freelance

Offre d'emploi
Architecte Data Azure

KLETA
Publiée le
Azure
Databricks

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Freelance
CDI

Offre d'emploi
Data Scientist Computer Vision

Codezys
Publiée le
Computer vision
Deep Learning
Machine Learning

12 mois
Grand Est, France
Objet : Appel d'offres pour un(e) Data Scientist spécialisé(e) en Computer Vision - Alsace Notre entreprise, leader dans l'accompagnement à l'aménagement intérieur, souhaite renforcer ses capacités en intégrant des solutions basées sur l'intelligence artificielle et la vision par ordinateur. Afin de soutenir notre croissance, nous lançons un appel d'offres pour le recrutement d’un(e) Data Scientist spécialisé(e) en Computer Vision, ayant une expérience minimale de 2 ans. Contexte de la mission : Nous exploitons la donnée et les technologies d’intelligence artificielle pour révolutionner la manière dont nos équipes commerciales identifient les besoins clients, ainsi que la représentation et la configuration en temps réel de scènes d’ameublement. La personne recrutée jouera un rôle clé dans le développement et la déploiement de modèles de vision par ordinateur destinés à analyser des images et en extraire des insights opérationnels pertinents. Localisation : Alsace Vos missions principales : Développement de modèles de Computer Vision : Concevoir et entraîner des modèles capables d’identifier les objets, leurs fonctions et contenus à partir d’images. Support aux équipes commerciales : Accompagner les équipes dans l’exploitation des outils d’analyse visuelle, y compris la classification et l’interprétation des images. Déploiement et maintenance : Implémenter et assurer la maintenance des solutions de traitement d’images en production, en utilisant notamment Google Cloud Platform (GCP) et Vertex AI. Conception de pipelines : Développer des pipelines et des algorithmes permettant la visualisation en temps réel des scènes d’ameublement, facilitant ainsi la prise de décisions commerciales. Collaboration métier : Travailler étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques concrètes, assurer leur déploiement efficace et leur adoption opérationnelle. Veille technologique : Maintenir une expertise à jour en matière de vision par ordinateur afin d’intégrer les dernières innovations dans nos solutions.
Freelance

Mission freelance
Senior Data Engineer

Signe +
Publiée le
MySQL

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des data pipelines et solutions de data warehouse en environnement cloud Mettre en place et industrialiser les processus ETL / ELT et l’orchestration des pipelines en production Traduire les besoins métiers en solutions techniques data robustes en collaboration avec les équipes transverses Définir et appliquer les standards techniques et bonnes pratiques d’ingénierie data Participer à l’amélioration continue des architectures data et des performances des pipelines Expérience requise 6 à 10 ans d’expérience en Data Engineering Expérience confirmée en implémentation de pipelines data et solutions de data warehousing cloud Expérience en modélisation de données et orchestration de pipelines en environnement production Expérience de travail en équipes cross-fonctionnelles Compétences techniques Maîtrise avancée SQL Plateformes Data Warehouse : Snowflake (préféré) ETL / ELT : IICS ou équivalent Transformation data : dbt (préféré) Python pour traitement de données Cloud : AWS (préféré) Orchestration : Airflow (préféré) CI/CD : GitHub Actions Versioning : Git Infrastructure as Code : Terraform Mise en place de standards d’ingénierie et patterns techniques Soft skills Esprit collaboratif et orientation solution Autonomie et proactivité Communication efficace avec équipes techniques et métiers Formation Bachelor minimum (Master apprécié) en informatique ou domaine équivalent Langue Anglais obligatoire
CDI

Offre d'emploi
Product Manager Digital & Data F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le
PostgreSQL
Terraform

Saint-Ouen-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Technicien support/réseau informatique H/F

HAYS France
Publiée le

Descartes, Centre-Val de Loire
Vos missions sont les suivantes : Assurer le bon fonctionnement des solutions de gestion d'impression chez les clients. Diagnostiquer, traiter et clôturer les incidents techniques (par téléphone ou par mail). Installer, paramétrer et maintenir les serveurs d'impression et logiciels associés (Papercut, Watchdoc…). Configurer les politiques d'impression : quotas, règles, sécurisation, impressions « Follow-Me ». Intégrer les solutions aux environnements clients : Active Directory, LDAP, messagerie, bases de données. Réaliser les tests de fonctionnement et assurer le suivi des interventions. Former les administrateurs et utilisateurs à l'utilisation des solutions. Documenter les interventions dans les outils internes. Contribuer à l'amélioration continue des processus de support et de déploiement.
Offre premium
Freelance

Mission freelance
Analyste DFIR & CTI - H/F

Be Resilient Group (BRG)
Publiée le
CrowdStrike

6 mois
500-600 €
Courbevoie, Île-de-France
Vos missions : --> Réponse à incident - Détecter et qualifier les incidents de sécurité (malwares, compromission, phishing, exfiltration…) - Investiguer et collecter les artefacts nécessaires à l’aide de journaux systèmes et des outils EDR, SIEM, etc. - Mener des actions de containment, d’éradication dans l’optique d’un retour à la normale --> CTI et détection : - Mener à bien des campagnes de hunting sur et à l’extérieur du système d’information (SIEM, VirusTotal) - Participer à la veille sur la menace afin d’alimenter le Threat Model de Suez (MOA, IOCs, TTPs) - Prendre part activement à l’amélioration de la connaissance de la surface d’attaque (EASM) - Proposer des améliorations des règles de détection --> Documentation et amélioration continue : - Mettre à jour les outils de collecte et la stack technique du CSIRT - Créer et mettre à jour la documentation associée
CDD
CDI
Freelance

Offre d'emploi
Expert Data Security (H/F)

KORAY-IT
Publiée le
Sécurité informatique

12 mois
65k-75k €
600-650 €
Île-de-France, France
Vos missions principales : Expertise technique avancée sur les solutions Symantec (SEP, DLP) Expertise sur les solutions Trend Micro (APEX One, Deep Security, DDEI) Expertise sur Active Identity (HID) Expertise sur Fortra – ICAP Gateway Administration et évolution de l’offre Data Security Participation aux projets d’ automatisation et de fiabilisation Support technique niveau 3 Rédaction de dossiers et d’avis techniques Élaboration de roadmaps sécurité Présentations techniques auprès des équipes projets et opérationnelles Participation aux astreintes et interventions HNO
Freelance
CDI

Offre d'emploi
Architecte Data GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
CDI

Offre d'emploi
ALTERNANCE - Assistant Ingénieur data et chimie (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Python

Pantin, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Consultant Data Snowflake

AGH CONSULTING
Publiée le
Qlik
Snowflake

6 mois
38k-45k €
280-400 €
Île-de-France, France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake, pour renforcer des équipes BI/Data existantes. Missions principales ▪ Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView ▪ Analyser les besoins métiers et les traduire en solutions BI pertinentes ▪ Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) ▪ Participer à l’amélioration des modèles de données et des performances des reportings ▪ Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique ▪ BI / Data Viz : Qlik Sense / QlikView ▪ Data Warehouse : Snowflake (niveau compréhension / usage) ▪ Langages & outils : SQL, notions ETL, environnements Data modernes ▪ Méthodologie : projets BI, travail en équipe agile ou hybride
Freelance

Mission freelance
Team Leader Data engineering

Codezys
Publiée le
Confluence
JIRA
Python

12 mois
Bordeaux, Nouvelle-Aquitaine
Objet : Appel d'offres pour le poste de Team Leader Data Engineering C-Logistics Nous lançons un appel d'offres dans le cadre du recrutement d'un Team Leader Data Engineering pour notre filiale C-Logistics . Ce poste clé s’inscrit dans notre démarche d’optimisation de nos processus data et d'amélioration continue des performances de notre infrastructure logistique. Mission Sous la responsabilité du Head of Engineering Logistique , le Team Leader sera chargé de diriger l'équipe data engineering dédiée à C-Logistics. À ce titre, il jouera un rôle stratégique en tant que facilitateur et coach technique, tout en étant un acteur majeur de la performance de l’équipe. La mission s’appuie sur les principes Lean pour assurer l’efficacité des processus. Les responsabilités principales incluent : Optimiser les processus de delivery afin d’assurer une production de données performante et fiable ; Analyser et traiter les causes racines des problèmes rencontrés en production pour assurer une stabilité continue ; Foster l’autonomie et le développement des compétences de l’équipe ; Garantir la performance, la scalabilité et la fiabilité de nos solutions data, en cohérence avec la vision produit définie par le product manager. Périmètre Les activités concernent principalement : Le traitement et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics ; Le partage de données avec d’autres filiales du groupe ; Le partage de données avec nos clients B2B, afin d’assurer une transparence et une collaboration optimale. Profil recherché Ce poste requiert une forte capacité d’analyse, un leadership affirmé et une expertise technique solide en ingénierie des données. Le candidat idéal doit maîtriser les principes Lean, avoir une expérience en gestion d’équipes techniques, et être capable d’assurer la scalabilité des solutions dans un contexte multi-parties prenantes. Modalités de réponse Les prestataires souhaitant répondre à cet appel d’offres sont invités à fournir une proposition détaillée, incluant leur méthodologie, leur expérience pertinente, ainsi que leur approche pour répondre aux enjeux mentionnés ci-dessus. Nous vous remercions de votre intérêt et attendons vos propositions avant la date limite communiquée.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6893 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous