Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 228 résultats.
Freelance

Mission freelance
Lead Analytics & Data

Publiée le
CSS
HTML
IA Générative

1 an
400-410 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Expertise GA4 et Google Tag Manager (plans de taggage, implémentation, recette, monitoring) • Analyse de la performance digitale (sites B2C, B2B, multi-marques) • Création et exploitation de dashboards PowerBI & Looker Studio • Analyses de performance ad-hoc et reporting business • Pilotage d’outils analytics tiers (ThankYou Analytics) • Coordination et intégration des tags média A/B Testing & CRO • Conception, déploiement et pilotage de roadmaps d’A/B tests • Création de tests et personnalisations via : o Éditeur WYSIWYG o JavaScript / CSS o Prompts IA • Analyse statistique, interprétation et restitution des résultats • Mise en place de modèles de suivi et de restitution des tests • Administration avancée d’outils Kameleoon / A/B Tasty • Optimisation des performances techniques et nettoyage régulier des outils CRO UX & User Intelligence • Analyse comportementale via Mouseflow / ContentSquare • Collaboration étroite avec équipes UX, SEO, Produit et CRO • Capacité à transformer les insights data en recommandations actionnables Tech & IA • Bon niveau HTML / CSS / JavaScript • Utilisation d’outils IA générative et rédaction de prompts • Intégration et interfaçage d’outils analytics avec des solutions tierces Gestion & Collaboration • Recueil et cadrage des besoins business • Coordination transverse (produit, design, tech, agences) • Capacité à accompagner et former les équipes • Forte pédagogie et sens de la communication
Freelance

Mission freelance
Data Analyst Expert Tableau (H/F)

Publiée le
BI
Cloud
Data analysis

6 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de ses capacités analytiques et de la valorisation de ses données décisionnelles, une organisation de premier plan recherche un Data Analyst expert Tableau . La mission s’inscrit dans un environnement data mature, orienté pilotage de la performance, aide à la décision et diffusion de la culture data auprès des métiers. Missions principales et rôle Analyser, structurer et exploiter des jeux de données complexes Concevoir, développer et maintenir des tableaux de bord interactifs sous Tableau Recueillir et challenger les besoins métiers Assurer la qualité, la fiabilité et la cohérence des données restituées Optimiser les performances des dashboards et des sources de données Accompagner les utilisateurs dans l’appropriation des outils de datavisualisation Contribuer à l’amélioration continue des pratiques data et BI Objectifs Fournir des analyses claires et actionnables pour les équipes métiers Améliorer le pilotage des activités via des dashboards pertinents Garantir une restitution fiable et sécurisée de la donnée Participer à la diffusion d’une culture data-driven au sein de l’organisation
CDD
CDI

Offre d'emploi
Ingénieur DevOps Confirmé Projet CKISA - Sophia Antipolis(H/F)

Publiée le
CI/CD
GED (Gestion Électronique des Documents)
Jenkins

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte & Mission Dans le cadre du lancement d’un nouveau logiciel destiné à la gestion de crise dans le secteur médical, nous recherchons un Ingénieur DevOps Confirmé pour intégrer une équipe de 5 à 10 personnes . La solution inclura plusieurs modules : Communication en situation de crise Gestion des patients Services bureautiques Consultation & GED Services applicatifs innovants Le DevOps sera fortement sollicité au début du projet pour installer les outils, configurer les environnements et mettre en place les CI/CD. 🛠️ Missions principales Mettre en place les pipelines CI/CD (Jenkins) Automatiser les processus de build, test et déploiement Concevoir et gérer l’orchestration Docker / Kubernetes Gérer les environnements et l’infrastructure technique Contribuer aux spécifications et à la documentation Participer aux cérémonies Agile (Scrum) Surveiller et optimiser les performances Documenter, partager et améliorer les bonnes pratiques DevOps 📦 Livrables attendus Code, scripts & charts Documentation technique Spécifications techniques 🧰 Compétences techniques indispensables 🔥 Impératives Kubernetes – Confirmé Jenkins – Confirmé ⭐ Importantes Docker / Containers – Confirmé Nexus – Junior 🔧 Autres compétences appréciées Git / Maven Splunk – OpenSearch OpenID Connect – Keycloak Bases de données relationnelles Jira – Confluence Agile Scrum Normes qualité & sécurité Expérience dans le domaine médical → plus apprécié 🌍 Langues Français courant (impératif) Anglais lu/écrit 👤 Profil recherché Bac+2/3 à Bac+5 (école d’ingénieur, master) Minimum 4 ans d’expérience en DevOps Expérience déjà prouvée en : Automatisation et pipelines CI/CD Gestion de configuration Infrastructure Docker/Kubernetes Excellent communicant, autonome, collaboratif Esprit agile, adaptabilité, curiosité technique Capacité à monter en compétence rapidement
Freelance

Mission freelance
Data & ML Ops Engineer

Publiée le
API
DevOps
Machine Learning

6 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Missions principales : Data Engineering Concevoir, développer et maintenir des pipelines de données robustes pour alimenter les applications. Garantir l’ingestion, la transformation et le stockage de volumes importants de données. Optimiser les traitements afin d’assurer des performances adaptées aux enjeux de volumétrie. Mettre en œuvre des dispositifs de qualité des données (contrôles, alertes, supervision). Travailler en étroite collaboration avec les équipes de développement pour définir et exposer les interfaces de données (API, bases). Documenter les flux et assurer la mise à jour du catalogue de données des projets. MLOps Industrialiser les processus d’entraînement des modèles de Machine Learning dédiés à l’optimisation du dimensionnement des structures. Déployer des pipelines CI/CD pour les modèles ML (gestion des versions des données et modèles, automatisation des entraînements). Suivre et analyser les performances des modèles en production (détection de dérives, indicateurs de performance). Accompagner les Data Scientists dans la mise en production des modèles.
Freelance

Mission freelance
Fiche de poste – Data Engineer (Snowflake / DBT / Airflow / AWS)

Publiée le
Apache Airflow
DBT
Snowflake

6 mois
480-600 €
Île-de-France, France
Télétravail partiel
Contexte : Je recherche plusieurs Data Engineers pour un client final, dans le cadre de missions urgentes. Ces postes sont à pourvoir rapidement et nécessitent une expertise technique pointue. Intitulé du poste : Data Engineer – Snowflake / DBT / Airflow / AWS Missions principales : Concevoir, développer et maintenir des pipelines de données fiables et performants. Participer à l’architecture et à l’optimisation des solutions Cloud. Collaborer avec les équipes Data et les équipes métiers pour assurer la qualité des données et des flux. Mettre en place les bonnes pratiques DataOps et CI/CD pour les pipelines de données. Assurer le monitoring, la sécurité et l’optimisation des coûts des infrastructures cloud.
Freelance

Mission freelance
Data Scientist Sénior

Publiée le
Data science
Python
Rédaction technique

18 mois
150-450 €
Paris, France
Télétravail partiel
Contexte : Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Scientist Spécialités technologiques : APIs, Simulation, Optimisation linéaire, Devops MISSIONS Dans le cadre du renforcement d’une équipe dédiée à la modélisation mathématique, le client recherche un Data Scientist Senior (>5 ans d’expérience) pour intervenir sur un ensemble de sujets variés : optimisation, simulation, analyse de performance, développement de modèles et d’outils applicatifs. La prestation s’inscrit dans un environnement comprenant plusieurs applications et modèles, et non un produit unique, nécessitant une forte capacité d’adaptation et une compréhension technique rapide. Le consultant interviendra en tant que référent senior, encadrant un Data Scientist junior et garantissant la qualité méthodologique et scientifique des travaux. Livrables attendus : - Validation des algorithmes d’optimisation. - Approbation des tableaux de bord et outils d’aide à la décision. - Revue critique des recommandations stratégiques. - Validation des rapports d’analyse et des indicateurs de performance. - Documentation des standards de qualité appliqués. Missions détaillées: 1. Encadrement & supervision méthodologique - Accompagnement d’un Data Scientist junior. - Définition des standards méthodologiques, bonnes pratiques et règles de modélisation. - Validation des approches algorithmiques et statistiques. - Orientation des travaux et identification des risques techniques. - Garantie de la cohérence globale des modèles par rapport aux objectifs du programme. 2. Développement & modélisation - Développement Python. - Création d’APIs. - Intégration de modèles. - Manipulation des équations et formalismes mathématiques. Utilisation de la librairie HiGHS (optimisation mathématique) pour : - Gestion des contraintes. - Calculs d’optimisations. - Résolution de modèles linéaires / mixtes. - Capacité à comprendre et implémenter les modèles algorithmiques, pas seulement à les consommer. 3. Contrôle qualité & validation scientifique - Revue de code, audit d’architecture et bonnes pratiques Python. - Vérification de la qualité et de la cohérence des données utilisées. - Validation de la robustesse des modèles prédictifs, d’optimisation ou de simulation. - Challenge technique des résultats, scénarios et hypothèses. - Approbation finale des livrables avant diffusion. 4. Expertise & conseil : - Intervention en tant qu’expert sur les sujets complexes de modélisation. - Recommandations méthodologiques et proposition d’améliorations. - Veille technologique et scientifique sur l’optimisation, les modèles mathématiques et les outils Python. - Capitalisation des bonnes pratiques pour l’équipe. 5. Communication & coordination : - Présentation des validations et recommandations aux parties prenantes. - Interface entre les équipes techniques et la direction projet. - Participation aux comités et instances de pilotage. - Documentation des critères de qualité et des processus de validation. - Contribution à la montée en compétences du Data Scientist junior. Compétences requises : - Expertise en Python : développement d’APIs, structuration de librairies, manipulation d’équations. - Maîtrise de HiGHS ou autre solveur d’optimisation linéaire/quadratique. - Solide bagage scientifique : mathématiques, physique, modélisation, statistiques. - Capacité à travailler sur plusieurs modèles simultanément. - Très bonne communication orale et écrite. - Autonomie forte et posture de référent. Compétences appréciées : - Expérience sur des modèles mathématiques à grande échelle. - Aisance en revue méthodologique et en cadrage scientifique. - Aucun besoin de connaissance fonctionnelle métier spécifique. Expertise souhaitée Data Scientist Senior (>5 ans d’expérience)
Freelance

Mission freelance
Ingénieur Big Data AWS

Publiée le
AWS Cloud
Terraform

12 mois
490-530 €
Paris, France
Télétravail partiel
Objectifs de la mission • Garantir la continuité opérationnelle de la plateforme Graylog. • Assurer la maintenance proactive et la mise en œuvre des évolutions techniques. • Contribuer à l’optimisation des performances et à la fiabilité des flux de données. Missions détaillées • Administration et évolution de la plateforme Graylog. • Gestion et automatisation de l’infrastructure via Terraform et Ansible. • Supervision des flux Kafka et intégration des données. • Mise en place et suivi du monitoring et alerting via Grafana. • Déclaration et suivi des incidents, reporting régulier. • Proposition d’améliorations techniques et fonctionnelles.
CDI

Offre d'emploi
Data Governance Lead

Publiée le
Data governance
Gouvernance, gestion des risques et conformité (GRC)
KPI

Boulogne-Billancourt, Île-de-France
Télétravail partiel
Dans le cadre du déploiement d’un domaine majeur de conformité réglementaire lié au partage de données, une organisation internationale recherche un consultant senior pour accompagner la structuration, la gouvernance et le pilotage des dispositifs de conformité Data. La mission vise à apporter un support méthodologique, organisationnel et opérationnel afin d’aligner les pratiques, processus et gouvernances existantes avec les exigences réglementaires européennes relatives au Data Sharing. Le consultant interviendra en interface avec des équipes pluridisciplinaires (Data, IT, Sécurité, Juridique, Conformité et Métiers) et évoluera dans un environnement complexe et international. Il contribuera à la définition des modèles de gouvernance, animera et coordonnera des groupes de travail transverses, produira les livrables nécessaires à la prise de décision (roadmaps, plans d’action, supports de gouvernance) et accompagnera la transformation des pratiques liées à la gestion et au partage des données.
CDI
CDD

Offre d'emploi
Ingénieur DevOps Confirmé Accompagnement Évolution Produit- Sophia Antipolis (H/F)

Publiée le
CI/CD
Kubernetes

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre de l’évolution continue d’un produit stratégique, nous recherchons un Ingénieur DevOps Confirmé pour accompagner la construction, l’automatisation et l’optimisation des environnements techniques. La mission est orientée Kubernetes , CI/CD , Infrastructure as Code et observabilité . 📦 Livrables attendus Construction et maintien des environnements Automatisation complète des chaînes de delivery Documentation technique associée 🛠️ Missions principales Concevoir, déployer et administrer des clusters Kubernetes Intégrer et maintenir les outils de l’écosystème Kubernetes : Istio, Helm, ArgoCD, Prometheus, Grafana… Mettre en place et améliorer les pipelines CI/CD (GitLab CI, Jenkins, ArgoCD…) Surveiller les performances, la sécurité et la disponibilité des infrastructures Automatiser les tâches d’exploitation (Bash, Python, Terraform, Ansible…) Collaborer avec les équipes de développement pour optimiser les déploiements Assurer une veille technique et l’amélioration continue des pratiques DevOps 🧰 Compétences techniques requises (impératives) Kubernetes – Confirmé Jenkins – Confirmé Anglais professionnel – Impératif Compétences complémentaires recherchées Helm, Istio, ArgoCD, FluxCD Monitoring & observabilité : Prometheus, Grafana, Alertmanager, Loki CI/CD : GitLab CI, Jenkins, Argo Workflows IaC : Terraform, Ansible
Freelance

Mission freelance
Directeur DATA

Publiée le
SQL

3 mois
Yvelines, France
Télétravail partiel
Pour le compte de l'un de nos clients, nous recherchons un(e) consultant(e) SAP BI. Besoin : En collaboration avec le Chef de Projet métier, vous piloterez le suivi du chantier Data Analytics dans le cadre de la reprise des queries et codes spécifiques pour le reporting dans S4 ou sur la Data Platform (AWS). Le profil sélectionné assurera la planification et le suivi des phases clés du projet (Réalisation, Tests métier, Go-live), coordonnera les équipes concernées (IS pour S4, Digital Factory pour la Data Platform, Domain Leader/Data Manager pour les tests), et préparera les comités projet hebdomadaires pour présenter l’avancement du stream Data Analytics.
Freelance

Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France

Publiée le
Big Data
Cloud
Infrastructure

6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Offre premium
CDI
Freelance

Offre d'emploi
Data Analyst – Power BI / Business Objects (Junior / Confirmé) – CDI

Publiée le
Business Object
C#
Finance

3 jours
Île-de-France, France
Télétravail partiel
KS Consulting recrute un(e) Data Analyst BI disposant de 1 à 3 ans d’expérience pour intervenir chez un acteur majeur du secteur bancaire . Vous intégrerez une équipe Data / BI et interviendrez sur des sujets de reporting, d’analyse métier et de maintenance des solutions décisionnelles , dans un environnement structuré et exigeant. Missions principales Analyse et compréhension des besoins métiers (finance, banque, reporting réglementaire) Conception, développement et évolution de reportings et dashboards sous Power BI et Business Objects Participation à la maintenance et à l’optimisation des solutions BI existantes Exploitation et interrogation des données via SQL Contribution à la qualité, la fiabilité et la cohérence des données Collaboration avec les équipes métiers et techniques
Freelance

Mission freelance
[FBO] Data Engineer Expert Elastic Search (5 années d'expérience) - Guyancourt - 1178

Publiée le

5 mois
450-525 €
Guyancourt, Île-de-France
Télétravail partiel
Confirmé (Au moins 5 ans d’expérience) Secteur : Bancaire La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l’essor de nos infrastructures et l’évolution des technologies associées, ou encore l’automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l’organisation du client et de ses Clients (équipes applicatives et socles multiples et dispersées). Prenant en compte ce cadre, vos missions seront plus spécifiquement : - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source) Attendus. Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l’entreprise (flux : collecte, traitement, stockage et leur cycle de vie) - Rédiger les documents fonctionnels et techniques, d’exploitation, en veillant au respect des normes existantes - Mettre en œuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l’entreprise pour prise en compte des flux de données - Développer les cas d’usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Compétences requises - Connaissances en infrastructure : réseau / système - Connaissance indispensable en SGBD et langage de requêtage - Connaissance forte en streaming - Architecture d’Entreprise, plus particulièrement en base de données, flux de données - Conception et mise en place de solution de stockage et ingestion de données - Méthodologie Agile / DevOps, maitrise des outils associés - Gouvernance de la donnée - Maitrise de divers langages de programmation (Java/Python) - Anglais
Freelance

Mission freelance
Consultant Data – Migration & Qualité de Données (SQL / MarkLogic)

Publiée le
SQL

2 ans
400-490 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un projet de migration de données portant sur un référentiel clients , nous recherchons un Consultant Data intervenant sur des activités d’analyse, de préparation et d’intégration de données, avec une forte dimension technique et opérationnelle . La mission s’inscrit dans un projet de taille moyenne , combinant des travaux de maintenance data sur un socle existant et des activités structurantes de reprise de données dans le cadre d’une migration. Au sein de l’équipe projet, vous interviendrez sur les activités suivantes : Analyse et qualification des données dans le cadre de la migration d’un référentiel clients Conception et rédaction des spécifications de traitements de données Développement des traitements SQL permettant : l’analyse de la qualité de la donnée, la préparation et la transformation des données, l’intégration des données dans la cible Réalisation et maintenance des scripts de migration Maintenance data sur le socle MarkLogic : analyse des incidents liés aux données, correction des anomalies et suivi des incidents Production des livrables projet : spécifications de traitements, comptes rendus d’analyse de données, reporting d’avancement et de qualité Vous interviendrez en lien avec les équipes techniques et projet, dans un environnement structuré, orienté fiabilité, cohérence et qualité de la donnée .
Freelance
CDI

Offre d'emploi
Product Owner Data / IA – LCB/LAB

Publiée le
Data analysis
LabVIEW
Large Language Model (LLM)

1 an
40k-45k €
400-500 €
Paris, France
Télétravail partiel
🚨 Opportunité – Product Owner Data / IA – LCB/LAB 🚨 Nous recherchons un Product Owner issu de la Data Science souhaitant évoluer vers un rôle PO, pour piloter l’implémentation d’un nouveau moteur de détection LCB/LAB intégrant des briques d’Intelligence Artificielle. 🎯 Au cœur de la mission : Backtesting et modèles prédictifs Modélisation du risque par alertes Développement d’un agent conversationnel LLM pour l’aide au traitement des alertes Visualisation des données via base graphe (Neo4j) 👉 Mission à forte valeur ajoutée, mêlant Data, IA, produit et enjeux réglementaires.
Freelance
CDI

Offre d'emploi
Consultant Data - Gestion d'Actifs

Publiée le
Gestion de projet

1 an
40k-45k €
400-610 €
Paris, France
Télétravail partiel
Consultant Data - Gestion de Projets Un gestionnaire d'actifs recherche un consultant disposant d'une solide expertise dans la gestion de projets Data (au sein d'un gestionnaire d'actifs), ainsi que d'une bonne connaissance des données référentielles (instruments financiers et benchmarks). Le profil sélectionné jouera un rôle clé dans la transition des données et des processus vers la plateforme Data du groupe — une solution de gestion intégrée. Ses responsabilités incluront notamment : Soutenir la migration et l'intégration des données référentielles du Security Master et des benchmarks dans la plateforme. Collaborer avec les équipes internes afin de définir et valider les besoins en données, les mappings et les standards de gouvernance. Garantir l'intégrité et la cohérence des données migrées. Participer aux activités de tests, de rapprochement et de validation des processus.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

1228 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous