Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 855 résultats.
CDI
Freelance

Offre d'emploi
Tech Lead Data (H/F)

AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Freelance

Mission freelance
AWS Platform Engineer – Environnement Data & Analytics

Comet
Publiée le
AWS Cloud

1 an
400-550 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data & Analytics, vous rejoignez une équipe en charge de la construction et de l’évolution d’une plateforme cloud AWS. L’environnement est en pleine transformation technologique avec des enjeux forts autour de la gouvernance, la sécurité et la performance. Rôles & responsabilités Au sein de l’équipe Data & Analytics Platform : Développement et mise à jour de l’infrastructure Terraform (Infrastructure as Code) Mise en œuvre des règles de sécurité et des bonnes pratiques cloud Gestion et optimisation des environnements AWS Administration du datalake (stockage, lifecycle policies, gouvernance data) Gestion des VPC, NACLs, IAM Conception et maintenance des pipelines CI/CD Déploiement de microservices conteneurisés (EKS / ECS) Monitoring & supervision Documentation technique et accompagnement des équipes Compétences requises (minimum 2 ans d’expérience AWS) Cloud & Data Exploitation d’un datalake AWS S3 (schemas, lifecycle policies) Gouvernance & sécurité des données Performance & optimisation des coûts DevOps / Infra Terraform CI/CD GitHub / GitHub Actions Infrastructure as Code Docker Monitoring Développement Python APIs REST (event-driven apprécié)
Freelance
CDI

Offre d'emploi
Data Scientist - Multimodal document intelligence

PARTENOR
Publiée le
Agent IA
Deep Learning
IA Générative

1 an
Puteaux, Île-de-France
Dans le cadre d'un renforcement de nos équipes, nous recherchons des Data scientistes sénior pour intervenir de la conception globale d’une plateforme multimodale de compréhension documentaire et d’extraction de données structurées, couvrant l’analyse de mise en page de PDF complexes / pages scannées, l’extraction sémantique, la reconstruction structurelle à la validation de la qualité et l’intégration métier. Vos missions seront : Concevoir et faire évoluer le pipeline d’analyse documentaire multimodale : modélisation de la mise en page/structure, extraction sémantique, alignement cross-modal et reconstruction structurelle Construire et optimiser les mécanismes de collaboration multi-agents : décomposition des tâches, orchestration parallèle/séquentielle, relecture par les pairs et amélioration itérative de la qualité Définir les stratégies de sélection/combinaison/orchestration des modèles (routage dynamique selon le type de document, la structure du contenu et les signaux de qualité) Planifier et exécuter la validation des modèles, l’adaptation au domaine, l’apprentissage continu, l’apprentissage actif et les boucles de rétroaction des données Mettre en place des métriques de bout en bout : précision d’extraction, cohérence structurelle, efficacité de la collaboration des agents, latence, stabilité et coûts
Freelance

Mission freelance
Data analyst Tableau Software - Secteur automobile

Mon Consultant Indépendant
Publiée le
Data analysis

12 mois
600-640 €
Paris, France
Pour l'un de nos clients leader de la vente de pièces détachées dans le secteur automobile, vous intervenez en tant que DATA Analyst sur l'outil Tableau software. Vous intégrerez une équipe dynamique pour participer à l'analyse des données issues de nos plateformes. Vous contribuerez aux prises de décision stratégiques et à l'amélioration continue de nos canaux de vente et de nos experts marketing. Compétences clés : Vous maitrisez l'outil Tableau Software et d'autres solutions de BI. Vous êtes à l'aise dans la conception de Tableaux de bord et la formation des équipes utilisatrices Missions Principales : Collecter, analyser et interpréter les données des plateformes Participer à la création de rapports détaillés et de tableaux de bord pour identifier les tendances et mesurer les performances. Collaborer avec la responsable Marketing et offre pour explorer des opportunités d'optimisation. Contribuer à la présentation d'insights et de recommandations basées sur les données aux parties prenantes. Participer à une veille concurrentielle pour saisir les tendances du marché et les innovations. Contribuer à des tests & expérimentations Participer à la mise en place de processus d’automatisation, en collaboration avec les équipes commerciales et techniques.
Freelance

Mission freelance
Database Reliability Engineer / SQL Server / Windows (H/F) 75

Mindquest
Publiée le
Cybersécurité
Microsoft Dynamics
Microsoft SQL Server

6 mois
370-500 €
Paris, France
Mission Maintien en conditions opérationnelles * Assurer l’administration et le maintien opérationnel d’une dizaine de bases de données SQL Server supportant des applications critiques. * Garantir la haute disponibilité, la performance et la résilience des bases de données (PRA, monitoring, optimisation). * Automatisation et amélioration continue * Automatiser la gestion et l’administration des bases de données via des outils tels que Ansible et Puppet. * Contribuer à l’amélioration du monitoring et de l’observabilité des environnements SQL Server et Windows. * Participer aux analyses de performance et optimisations des bases de données. * Gestion des incidents et changements * Prendre en charge la gestion et la résolution des incidents. * Participer au Change Management, notamment lors des mises en production d’évolutions techniques. * Réaliser des post-mortems suite aux incidents afin d’identifier les axes d’amélioration. * Conception et évolution * Concevoir et déployer de nouvelles bases de données selon les besoins des équipes métiers. * Être force de proposition pour faire évoluer l’infrastructure et les pratiques techniques. * Communication et documentation * Assurer l’interface entre l’équipe technique et les clients internes (CRM, BI, Finance, MDM…). * Produire et maintenir la documentation technique (SharePoint, Confluence). * Rédiger des comptes-rendus d’activité quotidiens et hebdomadaires. Environnement technique Bases de données : SQL Server Automatisation / DevOps : Ansible, Puppet Systèmes : Windows, Linux ETL : SSIS (atout) Outils : ServiceNow (incidents / change management) JIRA Confluence / SharePoint
Freelance

Mission freelance
Architecte Data

Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
Freelance

Mission freelance
Data Analyst IA Solutions (PowerBI, SQL, Python)

Nicholson SAS
Publiée le
CI/CD
Data analysis
DBT

24 mois
300 €
Lille, Hauts-de-France
Missions : Nous recherchons une personne avec une expérience confirmée (au moins 3 à 5 ans sur des problématiques Data), passionnée par la construction de solutions analytiques robustes et percutantes. Modélisation et Bases de Données : Vous maîtrisez parfaitement le langage SQL pour concevoir et optimiser des tables de données, notamment dans BigQuery et PostgreSQL. Vous avez également une connaissance des bases de données NoSQL comme MongoDB. Une expérience avec dbt pour la transformation et la modélisation est fortement appréciée. Visualisation de Données (Dataviz) : Vous avez une expertise solide sur des outils de BI comme Power BI ou Looker pour transformer des données brutes en dashboards interactifs et clairs, aidant ainsi à la prise de décision. Ingénierie et Analyse : Vous utilisez Python pour l'analyse, la manipulation de données complexes ou l'automatisation de tâches. Écosystème Cloud & DevOps : Vous êtes familier avec Google Cloud Platform (GCP). Vous avez une forte sensibilité aux pratiques DevOps et une expérience avec les outils d'intégration et de déploiement continus (CI/CD, comme Git, GitLab CI, GitHub Actions) pour garantir le versionnement, la qualité et l'automatisation des déploiements. Qualité de la Donnée : Vous êtes sensible à la qualité et à la gouvernance des données, et vous mettez en place des pratiques pour assurer la fiabilité des informations.
CDI

Offre d'emploi
Support Applicatif / SQL (H/F)

Amiltone
Publiée le
SQL

27k-32k €
Lyon, Auvergne-Rhône-Alpes
Vos missions ? En tant que consultant support applicatif vous serez en charge des missions suivantes: - Diagnostiquer et résoudre les incidents applicatifs escaladés par le support N1. - Analyser les causes récurrentes et proposer des solutions correctives ou préventives. - Suivre et documenter les tickets dans l'outil ITSM (Jira, ServiceNow, GLPI…). - Réaliser les opérations de maintenance applicative et les mises en production mineures. - Escalader les incidents complexes au support N3 ou aux équipes de développement. - Rédiger et mettre à jour la documentation technique et les procédures de résolution. - Accompagner les utilisateurs et assurer une communication claire lors des incidents. - Participer aux tests fonctionnels après correctifs ou évolutions. La stack Technique : SQL
CDI

Offre d'emploi
Analyste data finance (F/H/X)

Talents Finance
Publiée le

35k-55k €
Paris, France
Vos missions : Préparation d’un plan de travail de correction des données Collecter et centraliser les données financières statiques, nécessaires à l’optimisation de l’ERP de l’entreprise Saisir, mettre à jour, vérifier la cohérence, contrôler la qualité des données Catégoriser et structurer les données pour faciliter leur analyse et exploitation stratégique Créer et mettre à jour des manuels de gestion de données Participer à la création d'un système d'analyse de la qualité des données Analyser des données simples existantes et rechercher des écarts de données Modéliser les bases de données financières et en assurer les mises à jour régulières, pour répondre aux besoins évolutifs Interagir directement avec les utilisateurs finaux, pour comprendre leurs besoins spécifiques et construire une relation de confiance Autres informations : Département : Technologie de l'information Type de contrat : Contrat à durée indéterminée (CDI), Temps plein Durée du contrat : indéterminée Date de début : dès que possible Horaire : 8H00-12H00 et de 12H50-16H50 du lundi au jeudi et 8H00-12H00 et de 12H50-15H50 le vendredi (soit un total de 39H par semaine) Localisation du poste : Nogent-sur-Seine, Aube (10), Grand Est, France - proche Romilly-sur-Seine (10), Troyes (10), Sézanne (51), Montereau-Fault-Yonne (77), Nangis (77), Provins (77) et Sens (89), 54 min direct de Paris en train Déplacement : à Nogent-sur-Seine Télétravail : non Poste ouvert aux personnes en situation de handicap
CDI

Offre d'emploi
Chef de projet / Développement AS400 RPG SQL F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
SQL

Longjumeau, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F

STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
CDI

Offre d'emploi
Architecte data

CAT-AMANIA
Publiée le
Architecture

Île-de-France, France
Le bénéficiaire souhaite s’appuyer sur une expertise en architecture data ou data modeling afin de : • Accompagnement des équipes Métier et IT dans la mise en œuvre de solutions Data alignées avec la stratégie Data de l’entreprise, fondée sur les principes Data Mesh et une gouvernance renforcée. • Définition et application des principes d’architecture et de gouvernance Data, en lien avec la Design Authority et le Centre d’expertise Data. Le périmètre d’intervention pourra évoluer en fonction des besoins et des domaines métier à adresser.
Freelance
CDI

Offre d'emploi
Senior Engineer Snowflake

VISEO
Publiée le
Cloud
DBT
Snowflake

12 mois
Boulogne-Billancourt, Île-de-France
En tant que Senior Ingénieur Snowflake, vous serez responsable de : Conception & Architecture Concevoir, modéliser et optimiser les architectures Data Warehouse / Data Lakehouse sous Snowflake. Définir la stratégie d’ingestion, de transformation et de stockage des données. Concevoir des pipelines data performants et sécurisés. Développement & Industrialisation Développer des flux de données (ETL/ELT) avec Snowflake, SQL, Python et outils d’intégration (DBT, Fivetran, Airflow…). Optimiser les performances des warehouses, requêtes SQL et processus de calcul. Mettre en place des environnements CI/CD pour les projets data. Sécurité & Gouvernance Implémenter les bonnes pratiques de sécurité : gestion des rôles, RBAC, chiffrement, monitoring, FinOps. Gérer la qualité des données, le catalogage et la gouvernance. Support & Collaboration Collaborer avec les équipes Data, IT, BI et Métier pour comprendre les besoins. Fournir support, documentation et bonnes pratiques. Participer à la veille technologique autour de la Data & du Cloud. Compétences techniques recherchées Indispensables Maîtrise de Snowflake (warehouses, compute, storage, performance, sécurité). Excellente maîtrise du SQL avancé. Expérience sur un cloud public (AWS, Azure ou GCP). Connaissance des architectures Data (DWH, Lakehouse, MPP, data pipelines). Appréciées DBT, Airflow, Fivetran, Matillion ou équivalents. Python pour la manipulation et l’automatisation. Outils BI (Power BI, Tableau, Looker…). Pratiques DevOps : Git, CI/CD, Terraform. Connaissances en IA / Machine Learning (bonus).
Freelance
CDI

Offre d'emploi
SRE Data et IA

VISIAN
Publiée le
DevOps
Site Reliability Engineering (SRE)

1 an
40k-45k €
400-650 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement afin de garantir la disponibilité, la performance et la résilience des services en production. Le/La SRE anticipe les risques, accompagne les équipes Dev/Prod et développe l'automatisation nécessaire pour assurer un fonctionnement optimal des plateformes, avec une spécificité sur la gestion des applications Data et IA. Responsabilités principales Suivi de la fiabilité, l'intégrité et la qualité de la plateforme en production Définition et suivi des SLO/SLI ; rétablissement du service en cas d'incident Participation aux projets dès le cadrage et anticipation des impacts sur la production Automatisation des opérations et réduction du travail manuel Mise en place d'un monitoring, de l'alerting et des dashboards pertinents Pilotage de l'obsolescence et contribution à la sécurité opérationnelle Contribution à la communauté SRE : bonnes pratiques, partage d'expérience Compétences clés Techniques : Connaissances des solutions Data & AI (ex : Airflow, Spark, Starburst, Domino AI …) Linux (RHEL), Docker, Kubernetes / OpenShift Automatisation & IaC : Git, Jenkins (CI/CD), Ansible, Terraform Scripting : Python, Shell, YAML Observabilité & Monitoring : ELK, SysDig, Dynatrace, Grafana Supervision / Scheduling : Control-M Cloud : IBM Cloud
Freelance

Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)

SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks

3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
Freelance

Mission freelance
Consultant SAP Master Data -MM/SD

KN CONSULTING
Publiée le
Master Data Management (MDM)
SAP MM
SAP SD

3 mois
400-700 €
Auvergne-Rhône-Alpes, France
Nous recherchons actuellement un Consultant Freelance SAP Master Data MM/SD pour intervenir dans le cadre d’un projet stratégique de conversion vers S/4HANA . La mission porte principalement sur la gestion et la qualité des données de référence (Master Data) , avec un focus important sur la préparation, l’exécution et le suivi des tests de non-régression afin de garantir l’intégrité des données après la conversion. L’objectif est d’assurer une transition fiable vers S/4HANA , en sécurisant les données Master Data et en contribuant activement aux phases de test et de validation du projet. ⚠️ Point essentiel pour le client : nous recherchons un profil autonome sur le paramétrage et à l’aise avec les aspects techniques de base , notamment sur les Business Partners et les interfaces.
2855 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous