Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 817 résultats.
CDI

Offre d'emploi
Ingénieur Support N3/N4

KUBE Partners S.L. / Pixie Services
Publiée le
Google Cloud Platform (GCP)
Linux
OS Windows

40k-50k €
Lille, Hauts-de-France
🌟 Pixie Services cherche à renforcer son équipe avec un Ingénieur Support N3/N4 expérimenté ! 🌟 Rejoignez notre équipe dynamique dans la métropole lilloise et devenez un pilier de notre support technique de haut niveau. À propos : Au cœur de la métropole lilloise , Pixie Services incarne l'innovation et l'excellence dans le domaine des solutions technologiques. Nous nous engageons à fournir un environnement de travail stimulant où chaque membre de l'équipe peut s'épanouir et contribuer activement à notre succès commun. 🔥 Ce que nous offrons : Une opportunité unique de travailler sur des problématiques techniques complexes et variées, apportant des solutions innovantes. Un rôle crucial au sein d'une équipe de support réputée pour sa réactivité et son expertise technique. Une position basée dans la vibrant métropole lilloise , au sein d'une entreprise pionnière dans son domaine. 🔧 Missions pour l'Ingénieur Support N3/N4 : Résolution de problèmes complexes : Prendre en charge et résoudre les incidents techniques de niveau 3 et 4, nécessitant une expertise approfondie. Amélioration continue : Contribuer à l'amélioration des processus et des outils de support pour optimiser la qualité et l'efficacité du service. Collaboration technique : Travailler en étroite collaboration avec les équipes d'ingénierie et de développement pour identifier et résoudre les problématiques systèmes et réseaux. Documentation et formation : Rédiger des documentations techniques détaillées et former les équipes de support de niveaux inférieurs pour améliorer leurs compétences. Veille technologique : Se tenir informé des dernières tendances et technologies pour anticiper les problèmes et proposer des solutions innovantes.
Freelance

Mission freelance
Data Engineer Principal

Nicholson SAS
Publiée le
Architecture
Data analysis
Data Lake

6 mois
550 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon avec une présence sur site requise trois jours par semaine, ce rôle de Data Engineer Principal s’inscrit dans un contexte exigeant mêlant data engineering et machine learning. Démarrage ASAP pour une mission courant jusqu’au 31 décembre 2026. Au sein des équipes produit, le consultant interviendra sur la conception, la construction et la maintenance du data layer ainsi que des plateformes de données. Il sera responsable de la mise en œuvre d’architectures robustes permettant le traitement et l’analyse de volumes de données importants, en garantissant performance, scalabilité et fiabilité. Le poste implique également la gestion des flux de données et des interfaces associées, avec la création et l’intégration de structures optimisées pour l’exploitation analytique. Une attention particulière sera portée à l’industrialisation et au déploiement d’algorithmes performants, dans une logique d’optimisation continue. Le profil recherché justifie d’au moins 7 ans d’expérience, avec une expertise confirmée en data engineering, architecture data, data management et environnements data lake, ainsi qu’une bonne maîtrise des problématiques machine learning.
Freelance

Mission freelance
Développeur Full Stack orienté Frontend (React / Data Applications)

█ █ █ █ █ █ █
Publiée le
DevOps
Docker
Javascript

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
DataOps Engineer - H/F

AMD Blue
Publiée le
Amazon S3
AWS Cloud
CI/CD

3 ans
48k-56k €
480-550 €
Lille, Hauts-de-France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Ops . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Ops . Contexte de la mission : Notre client recherche un(e) Senior Data Ops Engineer pour rejoindre son équipe en charge du Datalake. La donnée est au cœur de la stratégie de notre client, guidant chaque décision de la conception à l'expérience utilisateur. L'équipe est responsable de la mise à disposition du stockage, de la robustesse, de la scalabilité et de la gouvernance technique du patrimoine de données. Descriptif de la mission : Les missions sont : Garantir la robustesse de la plateforme : Gestion du DRP et du PCA. Monitoring et pilotage : Actions proactives de management de la plateforme de stockage (Storage Lens, Cloudtrails). Support et accompagnement : Expertise sur S3, Glue et Unity Catalog. Infrastructure as Code : Déploiement de nouvelles ressources via Terraform et maintenance de l'existant. Collaboration : Travail en étroite collaboration avec les ingénieurs infra et les équipes ops. Accompagnement et formation : Définition et promotion des bonnes pratiques, conseil lors de la conception des pipelines de données. Développement du futur : Automatisation de la gouvernance (Data contract registry, access management) et déploiement de Unity Catalog (lineage, managed tables, etc.).
CDI

Offre d'emploi
Data Scientist / AI Engineer

█ █ █ █ █ █ █
Publiée le
Ocaml
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecte Data

PROPULSE IT
Publiée le

24 mois
350-700 €
Paris, France
PROPULSE IT recherche un Architecte DATA. Pour soutenir la sélection et la mise en œuvre d'un nouveau système CRM et d'une plateforme d'automatisation marketing, le client recherche un expert capable de préparer l'avenir et de développer davantage le modèle de données client et consommateur, et d'établir un plan d'intégration et une feuille de route. - Conception de bases de données Traduire le modèle consommateur canonique existant en une base de données concrète. Définir et documenter les entités, attributs et relations dans un dictionnaire de données. Assurer de la qualité des données et de la cohérence sémantique. Intégration et cartographie fonctionnelle Cartographier fonctionnellement les données des consommateurs à travers les différents systèmes B2C. Développer des cartographies et des transformations à partir des CRM, e-commerce, POS (physique), fidélisation et automatisation marketing vers la base de données consommateurs. Définir les approches de transformation et de standardisation. - Architecture et feuille de route Finaliser l'architecture de l'application autour des données des consommateurs : systèmes, processus et dépendances. Ajuster le modèle de données lorsque cela est nécessaire, en tenant compte des limites des systèmes existants. Élaborer une feuille de route pour relier les différents systèmes par phases.
CDI
Freelance

Offre d'emploi
Data Scientist / Expert IA (H/F) expérimenté – Paris – PhD

Cogniwave dynamics
Publiée le
Agent IA
Artificial neural network (ANN)
AWS Cloud

5 ans
Paris, France
Nous recherchons un(e) Data Scientist / Expert IA disposant d’un doctorat (PhD) en Machine Learning / NLP ou domaine proche, pour rejoindre nos équipes à Paris au sein de projets à forte valeur ajoutée en intelligence artificielle appliquée. Profil PHD EXPERIMENTE ayant plusieurs expériences profesionnelles concrètes CDI de préférence (ouvert aux freelance pour certaines missions) Projets sur Paris, luxembourg ou Belgique Votre rôle Concevoir, développer et industrialiser des solutions d’IA (NLP, LLM, IA générative) au service de cas d’usage métiers concrets. Participer à la définition des architectures data/IA et aux choix technologiques associés (cloud, outils, librairies). Contribuer à la mise en production des modèles (qualité, performance, robustesse) en lien étroit avec les équipes produit et métier. Intervenir sur tout le cycle de vie des projets : cadrage, POC, expérimentation, déploiement, suivi et amélioration continue. Ce que nous offrons Des projets IA de pointe, avec un fort niveau d’autonomie et de responsabilité. Un environnement stimulant, à l’interface entre R&D, innovation et enjeux business. Un cadre parisien dynamique, au sein d’équipes passionnées par l’intelligence artificielle et son impact concret. 🗼
Freelance

Mission freelance
Chef de projet Infra Cloud - Nationalité Européenne requise

Intuition IT Solutions Ltd.
Publiée le
AWS Cloud
Azure
Azure DevOps

9 mois
550-630 €
France
Les objectifs de la mission sont les suivants : · Leader de l'intégration de nouvelles applications dans HashiCorp Vault en utilisant des méthodologies Infrastructure as Code et Configuration as Code, avec une expérience avérée dans la gestion de déploiements à grande échelle dans des environnements hétérogènes. · Développement d'une documentation précise, complète et opérationnellement prête pour HashiCorp Vault. · Organiser des sessions de formation structurées aux équipes concernées afin d'assurer une utilisation correcte et efficace de Vault. · Concevoir et mettre en œuvre de nouvelles fonctionnalités, améliorations et améliorations architecturales au sein de HashiCorp Vault, tout en coordonnant à grande échelle avec de multiples parties prenantes et équipes techniques. · Planification, orchestration et validation des tests de reprise après sinistre (DR), définition des scénarios, critères de réussite et préparation inter-équipes. · Garantir l'excellence opérationnelle continue de la plateforme Vault, incluant la maintenance proactive, l'optimisation des performances, la gestion du cycle de vie et la réduction des risques.
Freelance

Mission freelance
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD

12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
Freelance
CDI

Offre d'emploi
QA Big Data

KLETA
Publiée le
Big Data
Hadoop

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Offre premium
Freelance

Mission freelance
CONSULTANT AI H/F

AXONE BY SYNAPSE
Publiée le
Agent IA
Azure AI
Copilot

3 mois
La Défense, Île-de-France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Consultant IA H/F capable d’identifier, structurer et piloter des initiatives à forte valeur ajoutée autour de l’intelligence artificielle. Le rôle consiste à intervenir sur l’ensemble du cycle de vie des cas d’usage IA : cadrage, identification des opportunités, réalisation de POC et accompagnement à la décision. Le consultant agira comme un facilitateur entre les équipes métiers et la DSI, avec une forte dimension d’acculturation et de vulgarisation des technologies IA. Objectif et livrable: Cartographie des cas d’usage IA priorisés Dossiers de cadrage (KPI, risques, vision) POC IA fonctionnels et documentés Business cases et analyses de valeur Recommandations technologiques et de gouvernance Supports de formation et acculturation Compétences attendues: Maîtrise des technologies IA générative (LLM, NLP, agents) Expérience sur Azure AI, Copilot Studio, Dify, LangChain Capacité à concevoir et piloter des POC (low-code/no-code, notebooks) Bonne compréhension des architectures data (datalake, pipelines, gouvernance) Connaissances en sécurité, conformité et gestion des données Capacité à structurer des business cases et analyser le ROI Expérience: 5 à 10 ans en conseil IT/Data/IA avec expériences concrètes en POC IA Télétravail: Quasi full remote possible, avec déplacements ponctuels requis (La Défense, Nogent-sur-Seine, La Rochelle)
CDI

Offre d'emploi
Data engineer BI (H/F)

Amiltone
Publiée le
BI

45k-50k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet BI. Vos missions : - Etre force de proposition sur la conception (normes, méthodes, contexte, environnements...) et la réalisation de traitements ETL industrialisés. - Challenger les besoins et de proposer des solutions viables et scalables d'un point de vue technique tout en respectant les budgets impartis. - Concevoir des rapports sur Power BI. - Tirer parti des services managés et de données de l'écosystème Microsoft Azure : Azure Data Factory, Azure Synapse Analytics, Power BI, etc. - Organiser des différentes couches d'un DataLake par type et qualité de données. - Assurer la sécurisation de l'écosystème de données Vos compétences : - Connaissances sur les ETLs (Azure Synapse/Azure Data Factory, Talend, DataStage,...) - Connaissances de Power BI et maitrise de la génération des rapports. - Connaissance d'Azure DataLake (Gen1 / Gen2). - Maitrise de SQL/Transac-SQL et des bases de données MySQL et MS SQL Server. Les plus : - Connaissances avancées d'Azure Synapse et de l'écosystème de données/BI de Microsoft Azure. - Connaissance des métiers de la Paie ou des Ressources Humaines.
Freelance

Mission freelance
Data Analyst IA Solutions (PowerBI, SQL, Python)

Nicholson SAS
Publiée le
CI/CD
Data analysis
DBT

24 mois
300 €
Lille, Hauts-de-France
Missions : Nous recherchons une personne avec une expérience confirmée (au moins 3 à 5 ans sur des problématiques Data), passionnée par la construction de solutions analytiques robustes et percutantes. Modélisation et Bases de Données : Vous maîtrisez parfaitement le langage SQL pour concevoir et optimiser des tables de données, notamment dans BigQuery et PostgreSQL. Vous avez également une connaissance des bases de données NoSQL comme MongoDB. Une expérience avec dbt pour la transformation et la modélisation est fortement appréciée. Visualisation de Données (Dataviz) : Vous avez une expertise solide sur des outils de BI comme Power BI ou Looker pour transformer des données brutes en dashboards interactifs et clairs, aidant ainsi à la prise de décision. Ingénierie et Analyse : Vous utilisez Python pour l'analyse, la manipulation de données complexes ou l'automatisation de tâches. Écosystème Cloud & DevOps : Vous êtes familier avec Google Cloud Platform (GCP). Vous avez une forte sensibilité aux pratiques DevOps et une expérience avec les outils d'intégration et de déploiement continus (CI/CD, comme Git, GitLab CI, GitHub Actions) pour garantir le versionnement, la qualité et l'automatisation des déploiements. Qualité de la Donnée : Vous êtes sensible à la qualité et à la gouvernance des données, et vous mettez en place des pratiques pour assurer la fiabilité des informations.
Freelance
CDI

Offre d'emploi
Data Analyste

OCTOGONE
Publiée le
Data analysis

1 an
Brive-la-Gaillarde, Nouvelle-Aquitaine
Basé à Cholet (49) ou Brive la Gaillarde (19) Description Principales responsabilités de l’offre : > Collecter, structurer et modéliser les données issues des différents systèmes industriels (ERP, MES, etc.) ; > Définir et construire des modèles de données adaptés aux besoins de reporting et d’analyse ; > Concevoir et maintenir des dashboards dynamiques sur Power BI (ou tout autre outil équivalent de data visualisation) afin de restituer les indicateurs clés de performance (KPI) aux équipes métiers ; > Participer à la mise en place de flux de données automatisés via des outils ETL (Talend de préférence) pour garantir la fiabilité et la disponibilité des informations ; > Accompagner les équipes opérationnelles dans la compréhension et l’utilisation des analyses produites ; > Identifier les axes d’amélioration, proposer des solutions innovantes et contribuer à la transformation digitale du site industriel ; > Rédiger la documentation des modèles, processus et outils déployés.
Freelance

Mission freelance
Developpeur Java/API

DEVIK CONSULTING
Publiée le
AWS Cloud
Java
Javascript

1 an
500-650 €
Île-de-France, France
Description Pour le compte de notre client grand compte, nous recherchons un Développeur Senior Java / API pour rejoindre l’équipe API Content. Cette équipe est responsable du développement et de l’exposition des API REST fournissant les données descriptives des assets (hôtels, spas, restaurants). Tâches principales Développer de nouvelles fonctionnalités sur les API REST Concevoir et implémenter des solutions techniques complexes Participer au cycle complet de développement dans un environnement Scrum (You build it, You run it) Collaborer avec le PO, Tech Lead, développeurs et QA Stack & Compétence Java / Spring (expert) – indispensable Design de solutions complexes (expert) AWS (confirmé à expert) JavaScript – NestJS / Angular (apprécié) Anglais professionnel Connaissance du domaine RH est un plus Lieu : Ile-de-france 1 jours de présence sur site Poste incluant astreintes
Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
2817 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous