Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 704 résultats.
Freelance

Mission freelance
Un Data Analyst Confirmé Sur Boulogne Billancourt

Almatek
Publiée le
Data analysis

4 mois
400-500 €
Boulogne-Billancourt, Île-de-France
Almatek recherche pour l'un de ses clients, Un Data Analyst Confirmé Sur Boulogne Billancourt. Profil recherché : Data Analyst > à 5 ans 5+ years in log analytics, observability, or web platform monitoring • Experience with enterprise-scale websites • Strong analytical mindset and ability to translate data into actionable recommendations • Able to work autonomously and advise at both technical and strategic levels Contexte : We seek a consultant to design and implement a monitoring and analytics framework that enables proactive detection, analysis, and mitigation of traffic spikes, anomalies, and performance or cost risks across our web platform. Environnement The platform includes: • Adobe Experience Manager (AEM) as a Cloud Service • Cloudflare (edge protection & bot management) • CDN layer (Fastly) • Google Analytics 4 • Log analysis via Splunk (or Microsoft Fabric in the future) Scope of Work : Dashboard & Monitoring • Analyse the needs for the case at hand • Build unified dashboards correlating AEM, CDN, Cloudflare, and analytics data • Visualize traffic trends, cache performance, request types, and error patterns Alerting • Configure proactive alerts for spikes, anomalies, bot surges, and abnormal API usage • Implement threshold-based and anomaly-based detection Analysis & Optimization • Interpret log data and traffic events • Identify causes of spikes or anomalies • Recommend improvements (caching, rate limiting, WAF rules, log enrichment, etc.) Knowledge Transfer • Provide documentation and walkthroughs to ensure internal teams can operate and extend the solution Required Expertise : • Strong experience with AEM logs and request flows • Experience analysing Cloudflare logs and CDN behaviour • Solid knowledge of Google Analytics 4 data structures • Advanced skills in Splunk SPL and dashboarding (or equivalent experience with Microsoft Fabric/KQL) • Deep understanding of: o HTTP, caching, and CDN architectures o Bot detection and traffic segmentation o Large-scale web traffic analysis
Freelance

Mission freelance
Consultant MOA Data / SQL – Secteur Protection Sociale

Comet
Publiée le
AMOA

1 an
400-650 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation SI, un grand acteur de la protection sociale renforce ses équipes pour accompagner une migration majeure de référentiels métiers . Ce projet à fort enjeu s’inscrit dans une feuille de route nationale avec des impacts réglementaires et opérationnels importants. Au sein d’une équipe MOA, vous interviendrez sur un projet structurant autour de la fiabilisation des données et de la migration vers un système cible fédéré . Vos responsabilités Participation à la préparation de la migration des données Fiabilisation et contrôle des référentiels Réalisation des recettes fonctionnelles et data Analyse et suivi des anomalies Interface entre équipes métiers et IT (MOA / MOE) Contribution à l’ accompagnement des utilisateurs Rédaction de livrables et documentation
Freelance

Mission freelance
Senior Data Engineer Databricks (mini 7 ans d'expérience)

nahange
Publiée le
Agile Scrum
Data analysis
Databricks

6 mois
450-580 €
Île-de-France, France
Dans le cadre d'un projet en méthode agile, nous recherchons une profil Data Analyst Senior ayant une bonne maitrise de Databricks Prend en charge toute la partie processus de la gouvernance de la donnée, du bon usage des données, de la méthode de conduite des projets En charge de toute la partie devéloppement ; migration sur Databricks (pyspark) Maintenir à jour et enrichir le patrimoine documentaire associé aux projets traités Participation aux cérémonies agiles : sprint planning, daily, Maitrise SQL, Power BI Connaissance de l'environnement Power BI
Freelance

Mission freelance
DevOps Engineer (+ FinOps) – Profil Intermédiaire / Senior – Mission longue

DUONEXT
Publiée le
AWS Cloud
DevOps
Terraform

6 mois
Île-de-France, France
Démarrage : ASAP Durée : 5 à 8 mois, mission de conseil / freelance / portage salarial Rythme : 3 jours sur site / 2 jours en télétravail Expérience : Intermédiaire / Senior Type de mission : Prestation Contexte de la mission Dans le cadre d’un programme stratégique de mise en œuvre d’une Nouvelle Plateforme Digitale (nouveau site e-commerce, nouveaux flux, nouvel ETL), au sein d’un grand acteur du Retail, nous recherchons un DevOps Engineer expérimenté , avec une sensibilité FinOps , pour encadrer une équipe de 4 DevOps . Vous interviendrez dans un contexte à forts enjeux techniques et business, en lien étroit avec les équipes IT, Digital, QA et Métiers. Missions principales 1. Pilotage et leadership DevOps Vous animerez et coordonnerez l’équipe DevOps. Le consultant attendu est un leader opérationnel , capable de : Réaliser, Challenger, Documenter, Montrer l’exemple sur le terrain. 2. CI/CD & automatisation Intégrer et qualifier les chaînes CI/CD Créer, maintenir, améliorer et documenter les pipelines de déploiement automatique Mettre en place et maintenir les tests automatisés (site et application web responsive) en collaboration avec l’équipe QA Automatiser les tâches via scripting 3. Cloud, FinOps & exploitation Étudier, préparer et budgétiser l’utilisation des infrastructures et services cloud AWS et Azure Optimiser les coûts et l’utilisation des ressources cloud (FinOps) Assurer le support technique aux équipes transverses (développeurs, QA, production, autres équipes) Debug, résolution d’incidents et optimisation des environnements AWS 4. Monitoring & observabilité Mettre en place le monitoring et l’observabilité Créer des dashboards Mettre en œuvre l’ouverture automatique de tickets et l’alerting
Freelance
CDI

Offre d'emploi
Chef de projet Data (H/F)

CGI
Publiée le
GraphQL
Large Language Model (LLM)
Neo4j

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de projets innovants autour de la valorisation de la donnée, nous recherchons un Chef de Projet Data capable de piloter des initiatives basées sur des modèles de données orientés graph (Graph Data Model) , intégrant des technologies comme Neo4j , et potentiellement des briques IA / LLM . L’objectif est de structurer, piloter et sécuriser la delivery de projets data à forte valeur métier. Piloter des projets Data autour de modèles Graph Coordonner les équipes Data (Data Engineers, Data Scientists, Architectes, Dev) Superviser la conception de modèles de données orientés graph Accompagner l’implémentation de solutions type Neo4j Encadrer les phases de cadrage, POC, industrialisation et mise en production Piloter l’intégration éventuelle de briques IA / LLM Assurer la gouvernance des données (qualité, sécurité, conformité) Suivre planning, budget, risques et reporting
Freelance
CDI

Offre d'emploi
Analyste DATA et DATASCIENCE

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Bordeaux, Nouvelle-Aquitaine
Prestation d'analyse DATA et DATASCIENCE Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ Fort d'une expérience DATA, le prestataire devra également montrer une appétence particulière dans le domaine fonctionnel Définition de la prestation attendue : Rattaché à l'équipe Analyse de la donnée, l’intervenant aura pour principales missions : Mise en oeuvre de cas d'usage métiers par croisement de la donnée (ciblage, analyse de donnée ou datascience ) Développement et maintenance de produits DATA réutilisables Publication des résultats d'analyse avec de la DATAVIZ Respect des normes et bonnes pratiques au sein de l’équipe Accompagnement et acculturation des équipes métiers ou autres Python, Pyspark,SQL,Dataviz, Datascience Plateforme : BIG DATA Hadoop (CLOUDERA) Langages : Python, PySPARK, SQL Restitution : PowerBI (dataset, dataflow, rapports)
Freelance
CDI

Offre d'emploi
Data Analytics Engineer – SQL & BigQuery

Clostera
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio

6 mois
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez-nous ! Nous recherchons un Data Analytics Engineer F/H capable de concevoir, structurer et exploiter des pipelines de données dans un environnement cloud moderne. Ce que vous ferez : Le rôle consiste à fiabiliser la donnée, construire les pipelines analytiques et produire des analyses exploitables pour les équipes métiers , en collaboration avec les équipes techniques et data. Le poste se situe à l’intersection entre : data engineering data analytics data visualisation Vos missions principales : Data Engineering Concevoir et optimiser des pipelines de données dans BigQuery Gérer la modélisation et la structuration des données Garantir la qualité, cohérence et fiabilité des datasets Data Analytics Rédiger et optimiser des requêtes SQL complexes Extraire et analyser des volumes importants de données Produire des analyses exploitables pour les équipes métier Data Processing & scripting Utiliser Python et ses bibliothèques analytiques Pandas NumPy PySpark Data Visualisation Concevoir des dashboards interactifs Identifier et suivre les KPIs métier Utiliser : Looker Looker Studio Data architecture Exploiter différents types de bases de données PostgreSQL MongoDB autres bases relationnelles ou NoSQL Comprendre et appliquer les architectures modernes : Data Lake Data Warehouse Cloud & DevOps Travailler dans des environnements cloud Google Cloud Platform Azure Mettre en place : CI/CD avec GitLab CI gestion du versionning avec Git Appliquer les principes DevOps pour améliorer les traitements data Collaboration & méthodes Travailler en méthodologie agile Scrum Sprint planning backlog refinement Collaborer avec : équipes métiers équipes data équipes techniques
Freelance

Mission freelance
AMO/architecte Ansible

Mon Consultant Indépendant
Publiée le
Apache
Apache Tomcat
Linux

12 mois
410-460 €
Paris, France
Pour un client dans le domaine ferroviaire et plus particulièrement pour sa DSI, nous recherchons un AMO/architecte Ansible pour : Définir et participer à la construction d’un l’outillage d’automatisation et d’industrialisation des tâches d’exploitation · Administrer une plateforme d’orchestration (RunDeck ou autre) · Administrer la plateforme ansible · Participer au durcissement des OS linux · Automatiser à l’aide de scripts les gestes d’exploitation sur les plateformes linux. · Être en support N3 des équipes de la DGNUM sur les solutions déployées · Définir/modifier les bonnes pratiques · Participation à la conception des feuilles de route techniques de la gestion de configuration · Suivre l’obsolescence des composants · Assure la veille technologique Environnement fonctionnel et technique : · SGBD : Oracle, Micrososft Sql Server, Postgresql, Ingres 9.2 sur Solaris , NoSQL Couchbase, Redis, · MONGODB, PAAS SGBD (AWS et Azure) · Serveurs : Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server · Middlewares : Apache, Tomcat, Weblogic, CFT, MQ Server SFTP, JMS, VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo · Plateformes/ logiciels : Teraform, Jenkins, Ansible, RunDeck, squash TM, Postman, Docker, Kubernetes, Databricks Connaissances, compétences obligatoires : · Expérience sur un poste similaire · Expertise ansible · Expertise sur les OS Linux (Ubuntu) · Expertise en développement de scripts Shell et un autre langage · Maitrise des technologies autour du cloud serait un plus Attitudes, aptitudes : · Excellent relationnel · Capacité de communication et d’écoute, diplomatie, autonomie et sens de la rigueur. · Forte capacité d’initiative et d’anticipation. · Autonomie et curiosité technique.
Freelance

Mission freelance
Team Leader Data engineering

Codezys
Publiée le
Confluence
JIRA
Python

12 mois
Bordeaux, Nouvelle-Aquitaine
Objet : Appel d'offres pour le poste de Team Leader Data Engineering C-Logistics Nous lançons un appel d'offres dans le cadre du recrutement d'un Team Leader Data Engineering pour notre filiale C-Logistics . Ce poste clé s’inscrit dans notre démarche d’optimisation de nos processus data et d'amélioration continue des performances de notre infrastructure logistique. Mission Sous la responsabilité du Head of Engineering Logistique , le Team Leader sera chargé de diriger l'équipe data engineering dédiée à C-Logistics. À ce titre, il jouera un rôle stratégique en tant que facilitateur et coach technique, tout en étant un acteur majeur de la performance de l’équipe. La mission s’appuie sur les principes Lean pour assurer l’efficacité des processus. Les responsabilités principales incluent : Optimiser les processus de delivery afin d’assurer une production de données performante et fiable ; Analyser et traiter les causes racines des problèmes rencontrés en production pour assurer une stabilité continue ; Foster l’autonomie et le développement des compétences de l’équipe ; Garantir la performance, la scalabilité et la fiabilité de nos solutions data, en cohérence avec la vision produit définie par le product manager. Périmètre Les activités concernent principalement : Le traitement et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics ; Le partage de données avec d’autres filiales du groupe ; Le partage de données avec nos clients B2B, afin d’assurer une transparence et une collaboration optimale. Profil recherché Ce poste requiert une forte capacité d’analyse, un leadership affirmé et une expertise technique solide en ingénierie des données. Le candidat idéal doit maîtriser les principes Lean, avoir une expérience en gestion d’équipes techniques, et être capable d’assurer la scalabilité des solutions dans un contexte multi-parties prenantes. Modalités de réponse Les prestataires souhaitant répondre à cet appel d’offres sont invités à fournir une proposition détaillée, incluant leur méthodologie, leur expérience pertinente, ainsi que leur approche pour répondre aux enjeux mentionnés ci-dessus. Nous vous remercions de votre intérêt et attendons vos propositions avant la date limite communiquée.
CDI

Offre d'emploi
Data Engineer Banque(F/H)

CELAD
Publiée le

45k-50k €
Paris, France
Contexte Dans le cadre du développement d’une Squad Usages Data Avancés & IA , nous recherchons un(e) Data Engineer confirmé(e) pour contribuer à la conception, l’industrialisation et l’amélioration continue de solutions data à forte valeur ajoutée. Vous évoluerez dans un environnement orienté DataOps , MLOps et industrialisation de solutions analytiques, au sein d’une équipe pluridisciplinaire (Data Scientists, DevOps, Product Owner…). La squad intervient sur : La conception et la maintenance d’applications data L’amélioration continue des produits existants La construction de nouveaux usages Data & IA Vos missions Conception & Architecture Participer à la définition des solutions applicatives data Contribuer aux choix d’architecture (batch, streaming, microservices data) Concevoir des pipelines robustes, scalables et performants Développement & Intégration Construire et maintenir des pipelines ETL / ELT (données structurées et non structurées) Développer des traitements en Python (PySpark, FastAPI) et SQL Intégrer des flux temps réel via Kafka / Spark Réaliser les phases d’intégration et de recette technique Industrialisation – DataOps / MLOps Mettre en œuvre des chaînes CI/CD et de déploiement (Docker, Kubernetes, GitHub/GitLab Actions) Industrialiser des modèles statistiques ou de Machine Learning Versionner données, modèles et code Monitorer la performance, la qualité et les coûts des traitements Assurer l’observabilité des solutions (ELK, Prometheus/Grafana, MLflow) Qualité & Amélioration Continue Mettre en place des tests automatisés (Pytest) Maintenir un haut niveau de qualité de code (SonarQube) Améliorer l’efficacité des processus Maintenir une documentation claire et à jour Collaboration Travailler en étroite collaboration avec les membres de la squad Préparer des datasets pour l’exploration et l’analyse Accompagner les utilisateurs dans la prise en main des solutions Docker Kubernetes GitHub Actions ou GitLab CI Compétences techniques requises Langages & Frameworks: Python (PySpark, FastAPI), SQL Big Data & Streaming: Apache Spark, Apache Kafka Bases de données: PostgreSQL, Teradata, MySQL MLOps / CI-CD / Conteneurisation: Docker, Kubernetes, GitHub Actions ou GitLab CI Qualité & Observabilité: Pytest, SonarQube, Stack ELK, Prometheus / Grafana, MLflow
Alternance
CDI

Offre d'emploi
data scientist, concepteur-développeur bi F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning
DevOps
Docker

Croissy-Beaubourg, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Consultant SI IA Prévoyance

CGI
Publiée le
AI

4 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
La mission consiste à : Analyser le processus actuel de liquidation des sinistres du périmètre retenu Identifier les étapes automatisables ou assistables Évaluer les solutions possibles : automatisation classique, intelligence artificielle, approches agentiques, ou solutions hybrides Mettre en œuvre un POV sur un cas d’usage ciblé en pilotant les équipes de développement de la plateforme IA Évaluer la valeur apportée et formuler des recommandations Compétences attendues : Compréhension des processus métiers assurance / prévoyance Capacité d’analyse et de modélisation de processus Capacités à proposer des solutions d’automatisation et d’IA Sensibilité aux approches agentiques et capacités à proposer des solutions d’agentic Capacité à travailler avec les équipes métiers et SI Esprit de synthèse et orientation valeur Le consultant interviendra à hauteur de 2 jours par semaine jusqu'à mi Mai puis à hauteur d'un jour jusqu'à la fin de la mission
CDI

Offre d'emploi
Ingénieur(e) R&D Data Scientist expérimenté(e) (F/H)

█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Tensorflow

Nantes, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
SAP Controlling (CO-CCA / CO-PS) – Sub-domain Lead

CRYSTAL PLACEMENT
Publiée le
SAP CO

3 ans
Paris, France
Dans le cadre d’un projet de transformation SAP S/4HANA en Greenfield (durée 3 ans), vous interviendrez en tant que Sub-domain Lead SAP Controlling (CO-CCA / CO-PS). Vous agirez comme expert SAP CO sur un périmètre couvrant les données de base CO-CCA (centres de coûts, centres de profit, ordres internes statistiques), les actuals & allocations, le CO-PS (projets et WBS utilisés comme collecteurs de coûts, sans usage étendu de la gestion de projet), le CATS et l’intégration avec SAP PM. Vous contribuerez à la finalisation du design et à la construction d’un Core Model sur le périmètre CO. Vous animerez des ateliers de design, réaliserez des démonstrations en environnement sandbox et challengerez les besoins métiers nécessitant des développements spécifiques en proposant des solutions alternatives. Vous interviendrez également en support à la phase de tests. Les livrables attendus incluent la documentation de design détaillé, les fichiers de configuration et les spécifications fonctionnelles.
Freelance
CDI

Offre d'emploi
Data Scientist

Lùkla
Publiée le
Azure DevOps
CI/CD
Databricks

3 ans
47k-64k €
100-520 €
Paris, France
Dans le cadre de sa stratégie Data & IA, notre client dans le secteur bancaire renforce ses équipes pour concevoir, entraîner, déployer et monitorer des modèles de Machine Learning, et intégrer les solutions d’IA Générative dans ses parcours clients et processus métiers. Vous rejoignez une équipe Data innovante, à la croisée des enjeux opérationnels, réglementaires et technologiques. Environnement technique : Modélisation & IA : Logistic Regression, XGBoost / LightGBM, SHAP, LIME, LLM (OpenAI, HuggingFace), LangChain, LangGraph ML Engineering : Python, Scikit-learn, MLflow, FastAPI, Pytest, GitHub Actions, Docker, Kubernetes Cloud & Big Data : Azure ML, Databricks, pySpark, Azure DevOps, Snowflake (atout) MLOps : CI/CD, Feature Store, API ML, Monitoring Drift, Backtesting, RAGAS, LLM as a Judge
CDI

Offre d'emploi
Data Engineer – GCP (H/F)

CELAD
Publiée le

45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, dans le secteur bancaire. L’enjeu : structurer et industrialiser l’écosystème Data & ML sur Google Cloud Platform. Vous intervenez à la fois sur l’architecture, le build, le run et la structuration des bonnes pratiques. Industrialiser les pipelines data sur l’écosystème GCP Gérer les montées de version des services managés Garantir performance, capacité et fiabilité Développer des pipelines en Python Exploiter et optimiser BigQuery Mettre en place des pratiques CI/CD adaptées aux projets data Structurer l’industrialisation des modèles de Data Science Gestion des IAM, droits d’accès et conformité Sécurisation des environnements Encadrement des accès aux données de production anonymisées Suivi des incidents Amélioration continue des livrables Gestion des évolutions techniques avec les éditeurs
5704 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous