Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 161 résultats.
Freelance

Mission freelance
Consultant Data Snowflake SQL

Publiée le
Snowflake
SQL

12 mois
Paris, France
Télétravail partiel
Analyse de la données Le consultant freelance accompagnera la mise en place, l’optimisation et l’automatisation des traitements de données sur Snowflake et Databricks, ainsi que le développement de scripts pour améliorer les processus internes. Missions principales Analyse de la donnée Analyser les besoins métiers et produire des jeux de données fiables et pertinents. Concevoir, optimiser et maintenir des requêtes SQL et objets Snowflake (tables, vues, pipelines). Développer des transformations et workflows sur Databricks Créer et maintenir des scripts d’automatisation (Python, PowerShell, .NET selon besoins). Documenter les traitements et assurer un niveau de qualité élevé des données. Collaborer avec les équipes internes pour faciliter l’utilisation et la compréhension des datasets.
Freelance

Mission freelance
PRODUCT OWNER DATA CRM / DIGITAL

Publiée le
Snowflake

12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Le poste s’inscrit chez un grand acteur du Retail à portée internationale. Le PO évoluera au sein d’une équipe Data d’environ 30 personnes, organisée par domaines. Rattachement direct au Lead PO Data Sales / Finance / CRM. Mission : piloter la vision, la roadmap et la valeur produit sur les périmètres CRM, Digital et e-commerce. ENVIRONNEMENT TECHNIQUE – Excellente maîtrise du SQL, notamment sur gros volumes de données. – Stack technologique : – Snowflake (Data Warehouse) – Matillion (ETL), migration vers DBT prévue – QlikSense (reporting et visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur l’ensemble des sujets Data liés au CRM, au Digital et à l’e-commerce. Responsabilités : – Conception des parcours utilisateurs et définition des KPIs clés. – Rédaction de spécifications fonctionnelles destinées aux Data Engineers / Data Analysts. – Gestion du Data Catalog sur le périmètre attribué. – Garantir le design produit, la cohérence fonctionnelle et la qualité des livrables Data. Cadre de travail : – Méthodologie Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : vision produit, capacité à challenger les besoins métiers, esprit critique élevé. PROFIL RECHERCHÉ – Minimum 8 ans d’expérience dans la Data, dont 4 ans en tant que PO ou Chef de Projet Data. – Solide culture Retail, avec maîtrise des enjeux CRM, omnicanal et e-commerce. – Qualités recherchées : – Autonomie, prise d’initiative – Leadership et capacité à fédérer – Excellentes capacités d’analyse et de structuration – Capacité à challenger et à apporter de la valeur métier
CDI

Offre d'emploi
CPTO saaS

Publiée le
Management
Product management
SaaS

70k-85k €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Rattaché·e au Dirigeant, vous intégrerez le CODIR et vous prendrez la direction de 3 équipes : 2 de développement (Logiciel / Data), chacune incluant un profil orienté Product, et une équipe dédiée à la partie Delivery / MCO. Vous aurez aussi à piloter directement une poignée de profils transverses pour un total de près de 20 personnes en tout sur votre pôle. Vous aurez à la fois un rôle de pilote opérationnel, en vous assurant au mieux du respect des délais et de la roadmap de chaque équipe, et un rôle plus organisationnel / structurel, en accompagnant la structuration des équipes sur le plan méthodologique via l'application de bonnes pratiques en matière de gestion de projets et d'assurance qualité au sein de chacune des équipes. Les attentes seront fortes sur l’optimisation des process, l’automatisation, l'amélioration du modèle SaaS, ainsi que sur l’efficience interne en réduisant notamment au minimum possible les tâches manuelles. Vous aurez aussi pour mission de peaufiner les KPIs afin de mesurer la performance de vos équipes tout en insufflant une atmosphère studieuse mais décontractée. De manière ponctuelle, vous pourriez être amené·e à effectuer des déplacements à l'étranger à la rencontre de clients. Enfin, votre intronisation au CODIR impliquera d'avoir une vision stratégique transverse pour piloter en équipe restreinte la transversalité des enjeux techniques, business et financiers.
CDI
Freelance

Offre d'emploi
Data Analyst - PowerBI

Publiée le
Conception
ETL (Extract-transform-load)
Microsoft Power BI

1 an
40k-45k €
300-500 €
Toulouse, Occitanie
Télétravail partiel
Nous recherchons un Data Analyst expérimenté pour intervenir sur la conception, le développement et l’industrialisation de dashboards Power BI destinés à des équipes internes. La mission couvre l’ensemble de la chaîne data : recueil des besoins, récupération et intégration des données, modélisation, alimentation de l’entrepôt de données, création de tableaux de bord, livraison et support aux utilisateurs. Vous participerez également à l’administration de l’environnement Power BI et au suivi des activités dans un outil de ticketing. Vous interviendrez sur des données liées au support informatique et aux cycles de vie des incidents. Le rôle nécessite une excellente maîtrise de SQL, Power BI et SSIS, ainsi qu’un esprit analytique, une rigueur forte et une réelle capacité de communication. Compétences techniques SQL – Expert Power BI – Expert SSIS – Confirmé / Important PL/SQL ETL Environnements On-Premise (pas d’Azure / pas de Data Factory) Conception et modélisation de données Intégration de données dans un entrepôt Conception de bases agrégées
Freelance
CDI

Offre d'emploi
Lead Data Engineer / Data Engineer senior H/F

Publiée le
Ansible
Apache Airflow
Apache Kafka

6 mois
65k-80k €
650-760 €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons pour le compte de notre client un Lead Data Engineer / Data Engineer Senior H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Un début de mission en janvier 2026 peut-être envisageable. Notre client propose 2 jours de télétravail maximum par semaine. Responsabilités principales : Mise en place de standards de développement et bonnes pratiques Expertise en performance, fiabilité et scalabilité Participation à la communauté des Tech Leads avec les différentes Lines of Business de notre client Développement de flux d’ingestion
CDI

Offre d'emploi
Data Analyst Confirmé – Power BI & SSIS (On-Premise) - Toulouse (H/F)

Publiée le
Microsoft Power BI
Microsoft SSIS

45k-50k €
Toulouse, Occitanie
Mission à réaliser Le consultant rejoindra le service ODS (Outillage Data Support) et interviendra sur l’ensemble de la chaîne BI , du recueil du besoin à la livraison et au support des dashboards Power BI. 1. Recueil & analyse des besoins Comprendre, analyser et formaliser les besoins des équipes support Identifier les sources de données (ITSM, ServiceNow) 2. Intégration & modélisation des données Intégrer et transformer les données dans l’entrepôt de données Concevoir des modèles de données et des bases agrégées Industrialiser les flux de données via SSIS 3. Développement des dashboards Concevoir et développer des rapports Power BI Produire des dashboards (cycle de vie des incidents, flux inter-équipes, KPI ITSM/ServiceNow) Livrer, documenter et administrer les rapports 4. Support & amélioration continue Assurer le support utilisateurs Former les équipes à l’utilisation des dashboards Suivre les tickets et évolutions dans Jira Contribuer à l’amélioration continue des process et de la qualité des données Environnement technique Power BI (On-premise) SQL / PL-SQL SSIS (Expert) ITSM / ServiceNow Entrepôt de données interne Jira Environnement 100% On-premise
Freelance

Mission freelance
Business Analyst Senior – Parcours Digitaux / Cash & Trade Finance

Publiée le
Cash Management
Xray

2 ans
400-520 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un programme pluriannuel de digitalisation des parcours clients au sein d’un grand groupe bancaire international, nous recherchons un Business Analyst Senior pour rejoindre le domaine Treasury Solution . Ce domaine réunit plus de 60 collaborateurs (internes et externes) répartis entre Paris et l’international, et pilote l’évolution des solutions IT Cash pour la ligne métier Global Trade. Au sein d’une squad Agile , vous jouerez un rôle clé dans la définition, la conception et la mise en œuvre de nouveaux parcours digitaux destinés aux clients et aux équipes opérationnelles (Front & Back Office). Vos missions Collaborer avec les utilisateurs finaux et les métiers pour comprendre leurs besoins, clarifier les enjeux et construire une vision fonctionnelle priorisée. Participer avec les UX Designers à la conception de parcours digitaux fluides et orientés valeur. Rédiger les spécifications fonctionnelles et les règles de gestion associées. Construire et découper les User Stories, contribuer au backlog et à sa priorisation. Préparer la stratégie de tests, rédiger et exécuter les cas de tests via X-Ray, accompagner les homologateurs. Vérifier la conformité des développements et suivre la qualité du run (analyse d’incidents, suivi des corrections). Accompagner les métiers lors du déploiement : formation, supports de communication, assistance au démarrage. En délégation du Chef de Projet : piloter des chantiers, coordonner les travaux de plusieurs BA, animer comités et ateliers. Environnement et méthodes Organisation Agile (Scrum / Kanban). Collaboration étroite avec UX, MOE, Chef de projet et utilisateurs finaux. Outils : JIRA, Confluence, SharePoint, X-Ray, Suite Office. Connaissances appréciées : SQL, Business Automation Workflow (BAW), digital web.
Freelance

Mission freelance
Data Scientist - (h/f)

Publiée le

12 mois
400-450 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ce poste vise à exploiter les données grâce à des modèles statistiques et des analyses avancées afin de faciliter des décisions commerciales éclairées et d’optimiser les résultats. Responsabilités : Développer des modèles statistiques et des algorithmes en utilisant une approche expérimentale et de découverte. Exécuter une modélisation avancée des données pour extraire des insights et des prédictions. Créer une chaîne analytique complète incluant la transformation, la structuration, la modélisation, la visualisation et l’obtention d’insights exploitables. Utiliser divers outils et méthodes pour appliquer des analyses avancées aux défis métier et optimiser les résultats. Compétences : Maîtrise de la modélisation statistique et des algorithmes. Expérience dans l’exécution de modèles de données avancés. Solides compétences en transformation et visualisation des données. Capacité à créer des insights exploitables à partir des données. Bons à avoir : • Familiarité avec les techniques d’apprentissage automatique. • Expérience avec des outils de visualisation de données comme Tableau ou Power BI. • Connaissance des stratégies d’optimisation métier.
Freelance
CDD

Offre d'emploi
Expert Big Data / Data Engineer Senior (H/F)

Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)

6 mois
80k-85k €
500-550 €
Guyancourt, Île-de-France
Télétravail partiel
VOS RESPONSABILITES PRINCIPALES : Build – Modernisation & migrations Data Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP). Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs…). Travailler avec les architectes et les CloudOps sur les architectures distribuées. Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA . Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD). Animer ateliers, documentation et transfert de compétences. Run – Support N2/N3 & performance Résolution d’incidents techniques Big Data (HDFS, Spark, Kafka, Flink…). Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation. Montée de version, patching, maintenance préventive. Participation aux astreintes (rotation). Amélioration continue & fiabilisation des environnements critiques. Application stricte du cadre ITIL V4 (incidents / problèmes / demandes).
Freelance

Mission freelance
LEAD DATA SCIENTIST GCP (550 MAX)

Publiée le
Google Cloud Platform (GCP)

1 an
400-550 €
Île-de-France, France
Télétravail partiel
Pilotage Technique & Architecture : Concevoir l'architecture des briques algorithmiques (Clustering, Prévision de ventes, Optimisation sous contraintes) sur GCP. ● Développement algorithmique (Hands-on) : Coder les modèles complexes, notamment l'algorithme d'optimisation (Recherche Opérationnelle) pour respecter les contraintes magasins (linéaire, supply, mix marge/CA). ● Coaching & Code Quality : En support éventuel de notre Lead Data Scientist interne, encadrer les Data Scientists séniors, garantir les bonnes pratiques (CI/CD, DVC, Tests) et l'industrialisation via Airflow/Composer. ● Mesure de la performance : Mettre en place des méthodologies robustes (ex: Causal Impact) pour mesurer les gains business (CA/Marge) post-déploiement. ● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery et une bonne connaissance des bases de données SQL/NoSQL (PostgreSQL, MongoDB, DBL…). ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Connaissance des architectures data modernes (Data Lake, Data Warehouse) et des environnements Cloud (GCP, AWS, Azure). ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Compréhension des principes DevOps, avec une vision orientée fiabilité et amélioration continue. ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog
Freelance

Mission freelance
Architecte Technique Solution Data

Publiée le
Big Data
Cloudera

3 mois
400-690 €
Île-de-France, France
La Tribu DATA (DAT) construit et développe des applications sur la base de puissantes plates-formes DATA à des fins d’usages variés servant toutes les directions métiers de la banque. Pour répondre à ces usages, DAT est au cœur de la stratégie datacentric de LCL, et intervient aussi bien au niveau de l’architecture Data, sur les technologies data, Big data, IA, Teradata, SAS, ainsi que sur les solutions analytiques et de datavizualisation. Plus particulièrement dans le cadre de la squad Socles Data, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....). LCL SNI TPI PSP 19/09/2025 Page 1 Les solutions doivent être mises en place dans une optique de service performant et évolutif pour nos métiers et utilisateurs divers, prenant en compte l’écosystème informatique LCL actuel ainsi que la stratégie de modernisation future. Le profil recherché doit avoir une connaissance forte des solutions Data de l’écosystème LCL, ainsi qu’une expérience très significative en qualité d’architecte technique Data. Il doit également avoir quelques notions des nouvelles technologies présentées dans le cadre de la stratégie de modernisation de nos plates-formes et être capable de monter rapidement en compétences dessus. Description complémentaire du profil Softskills: Sens du service. Bonne gestion du stress et des priorisations Très bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie (
Freelance

Mission freelance
Data Analyste Communication Digitale

Publiée le
Réseaux sociaux
Site web
Web

18 mois
100-400 €
Paris, France
Télétravail partiel
MISSIONS : - Assurer une veille continue et réactive des sujets de discussions sur les réseaux sociaux et le web, au travers d’outils de social listening - Rédiger en temps limité des notes d'analyse des retombées sur ces sujets (des notes quotidiennes, mensuelles, thématiques, ad hoc…) - Assurer une veille en temps réel des sujets de crise et, régulièrement, d’émissions en direct durant leur diffusion en soirée - Effectuer des études réputationnelles et des recommandations de profils d’influenceurs et influenceuses -Construire des recommandations stratégiques et éditoriales à l'attention de l'équipe de la Direction de la communication digitale et des autres Directions du Groupe Expertises demandées : - Plus de 5 ans d’expérience similaire - La maîtrise préalable de Talkwalker et de X Pro est nécessaire pour la réalisation de la prestation, de même qu'une expertise avancée des méthodologies d'écoute. - Une excellente aisance rédactionnelle est nécessaire, avec une rigueur syntaxique et orthographique marquée. -Des connaissances étendues sur les sujets sociétaux, politiques, médiatiques et numériques devront pouvoir être mobilisées. Spécifiquement, des connaissances sur le fonctionnement des principaux réseaux sociaux sont attendues.
Freelance

Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)

Publiée le
Ansible
Datadog
Google Cloud Platform (GCP)

3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Attaché à la Global Tech & Data platform, dans le Domain Voice of Customer tu rejoins une équipe pluridisciplinaire d’assistance à nos clients internes (BU, plateformes, …) dont la mission principale est de prendre en charge toutes les sollicitations en provenance des utilisateurs de la Tech&Data (Incidents, demandes de services, questions). Tu seras rattaché directement à l'activité de l'un de nos produits de data engineering: Datahub Pipelines pour lequel nous avons besoin de support fonctionnel (compréhension du logiciel back et front), technique (comprendre et régler des problèmes d'implémentations, notamment dans la stack technique des produits digitaux via terraform). L'univers de développement est complètement encadré dans GCP. Missions principales : 🛠 Tu analyses et résous des incidents complexes 🔍 Tu identifies les incidents récurrents 🤝 Tu traites les demandes de services 🤝 Tu collabores avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents 🤝 Tu collabores avec l'équipe onboarding et advocacy pour l'accompagnement des nouveaux utilisateurs 📊 Tu contribues à l'automatisation et à l’amélioration continue du/des produits 📝 Tu documentes et partages nos résolutions pour capitaliser 2. Compétences techniques requises : ✅ Cloud Computing : GCP ✅ Observabilité & Monitoring : Datadog, Prometheus, Grafana, ✅ Automatisation & Infrastructure as Code : Terraform, Ansible, Helm, Kubernetes (K8s) ✅ Scripting : Python, Bash, Go ✅ Gestion des alertes : PagerDuty 3. Soft Skills recherchées : ⭐ Esprit analytique : Capacité à détecter rapidement des problèmes et à les résoudre efficacement. ⭐ Proactivité & autonomie : Capacité à anticiper les incidents avant qu’ils n’impactent les services. ⭐ Collaboration : Travail en équipe avec les équipes produit ⭐ Sens du service client : la satisfaction de nos clients est ta priorité Un minimum de 2 jours sur site est exigé
Freelance
CDI

Offre d'emploi
Data Engineer AWS / Spark / Scala /Python

Publiée le
Apache Spark
PySpark
Scala

1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Freelance

Mission freelance
Chef de projet Senior

Publiée le
Direction de projet

6 mois
400-550 €
Paris, France
Télétravail partiel
Orcan intelligence recherche pour l’un de ses clients un Chef de Projet Senior pour piloter le déploiement et l’évolution d’un projet. Ce projet stratégique vise à refondre l’espace client pour offrir une expérience unifiée et simplifiée. Missions : Apporter une vision globale sur l’évolution de la plateforme. Préparation, animation et restitution des Coproj et Codir Garantir le respect des jalons, de la qualité des livrables et de la cohérence fonctionnelle Traduire les besoins des assurés et des administrateurs en solutions digitales fluides. Assurer la transition vers les nouveaux usages (processus de connexion, self-care, etc.).
Freelance

Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)

Publiée le
Ansible
Google Cloud Platform (GCP)
Helm

3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Contexte Rattaché à la Global Tech & Data Platform , domaine Voice of Customer . Support fonctionnel et technique sur le produit Datahub Pipelines (data engineering). Environnement Google Cloud Platform (GCP) . Missions principales Analyser et résoudre des incidents complexes. Identifier les incidents récurrents et proposer des solutions pérennes. Traiter les demandes de services et questions des utilisateurs internes. Collaborer avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents. Accompagner les nouveaux utilisateurs (onboarding). Contribuer à l’automatisation et à l’amélioration continue des produits. Documenter et partager les résolutions pour capitaliser. Compétences techniques requises Cloud Computing : GCP (Confirmé – impératif) Data Engineering : Confirmé – impératif Observabilité & Monitoring : Datadog (Confirmé – important), Prometheus, Grafana Infrastructure as Code & Automatisation : Terraform, Ansible, Helm, Kubernetes (Confirmé – important) Scripting : Python, Bash, Go Gestion des alertes : PagerDuty
6161 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous