Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 548 résultats.
Freelance

Mission freelance
Acheteur IT H/F

Publiée le
Exchange Online
Microsoft Excel
Power Query

6 mois
400-620 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
En tant qu’Acheteur spécialisé dans les prestations intellectuelles informatiques, vous serez responsable de la mise en œuvre de la stratégie achats pour des prestations en régie MOE. Votre rôle consistera à garantir la conformité des processus, optimiser les coûts et piloter les indicateurs de performance. Vous interviendrez sur l’ensemble du cycle achat : analyse des besoins, gestion des appels d’offres, suivi contractuel et relation fournisseurs. Vous serez également en charge de former les équipes internes à l’utilisation des outils dédiés (ElevenVMS) et d’accompagner les opérationnels dans leurs démarches. Ce poste stratégique requiert une forte capacité d’analyse, de négociation et une maîtrise des outils de reporting pour assurer la performance et la qualité des achats dans un environnement exigeant.
Freelance

Mission freelance
Business Analyst / Développeur Interfaces (SQL / API / BI)

Publiée le
.NET
API
PowerBI

3 mois
320-550 €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un Business Analyst orienté Data & Reporting pour intervenir sur des projets financiers. Votre rôle sera de développer et maintenir des interfaces entre différents systèmes (XDM, XDI, Xdit), assurer la MCO des applicatifs (gestion des tickets), et répondre aux besoins des utilisateurs. Vous participerez également aux évolutions techniques définies par le chef de projet, incluant des développements sur .NET et API. Une expertise en SQL et outils BI (QlikSense, Power BI) est indispensable.
Freelance

Mission freelance
Consultant Power BI / Progiciel ITSM Orleans ou Paris, 3 jours de TT

Publiée le
ITSM
Microsoft Power BI

2 mois
Paris, France
Télétravail partiel
Consultant Power BI / Progiciel ITSM/ SMAX VIO Sur Orleans ou Paris, 3 jours de TT. Démarrage asap. Power BI, dans le cadre d'une migration d'outils ITSM de Jira vers SMAX Compétences · Esprit d'analyse et qualité rédactionnelle. · Rigueur, bon relationnel et pragmatisme. · Maîtrise de PowerBl. · Des connaissances techniques sur SMAX VIO ou Progiciel ITSM équivalent seraient un plus. · Facultés d'adaptabilité, d'autonomie, de réactivité et de sens du service. Le client actuellement un programme de transformation technique et organisationnelle avec un basculement de son outil logiciel JIRA supportant ses processus ITIL vers l'outil cible du Groupe (UNITY basé sur SMAX V10) afin de se conformer aux pratiques et processus partagés au niveau de l'ensemble du groupe. Dans le cadre du projet UNITY, le 1er lot de travaux portant sur les processus de gestion des incidents (GDI), gestion des problèmes (GDP) et gestion des changements (GDC) est en cours de tests sous UNITY. Un 2nd lot de travaux portant sur les processus de gestion de la demande (GDD) débute sur le dernier trimestre 2025. Missions La mission consistera, en renfort de l'équipe projet UNITY : · Dans un premier temps, à implémenter sous PowerBl les rapports opérationnels de pilotage des processus du 1 er lot de travaux. · Dans un second temps, à participer à l'analyse d'écarts, l'élaboration du besoin et des spécifications ainsi qu'à implémenter sous Power BI les rapports opérationnels de pilotage, pour les processus du 2nd lot de travaux. Compétences · Esprit d'analyse et qualité rédactionnelle. · Rigueur, bon relationnel et pragmatisme. · Maîtrise de PowerBl. · Des connaissances techniques sur SMAX VIO ou Progiciel ITSM équivalent seraient un plus. · Facultés d'adaptabilité, d'autonomie, de réactivité et de sens du service.
Freelance

Mission freelance
Intermediate Data Engineer

Publiée le
API
AWS Cloud
Big Data

12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Freelance

Mission freelance
Business Analyst senior/Expert Data – Asset Management

Publiée le
Architecture
Business Analyst
Data Warehouse

2 ans
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Data expérimenté pour accompagner un Asset Manager dans la structuration et l’évolution de son écosystème Data. Vos missions : Recueillir et formaliser les besoins Data des équipes métier (Front, Risk, Reporting, Compliance). Contribuer à la conception du modèle de données et à la qualité / gouvernance des données. Participer à la mise en place d’outils de data management et data lineage. Collaborer avec les équipes IT, Data Engineers et Métier sur la roadmap Data
Freelance

Mission freelance
Développeur Oracle Data Integrator (ODI)

Publiée le
ODI Oracle Data Integrator

24 mois
300-430 €
Brest, Bretagne
Télétravail partiel
Au sein d’une équipe couvrant tous les métiers de notre client (commerce, gestion, marketing, finance, risque, etc. ), nous recherchons à renforcer notre équipe par l’intégration d’un nouveau Consultant ODI. En tant que consultant maitrisant parfaitement Oracle Data Integrator, vos tâches consistent à : - Analyse des besoins fonctionnels, cadrage technique, études - Préparation les plans d’actions techniques : architecture, documentation, charge, dépendances, délais, bonnes pratiques... - Accompagner les développeurs BI dans la réalisation de leur projet - Revue des solutions techniques - Apporter votre expertise technique lors des phases de préparation, de conception et de priorisation - Participation à tous les rituels agile de votre Feature Team - Réalisation des développements ETL sous Oracle Data Integrator - Suivi et la sécurisation des traitements de production - Amélioration de l’existant, gestion des tickets
Freelance

Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform

Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
550-600 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de sa plateforme cloud , une grande organisation internationale recherche un DevOps / Cloud Platform Engineer pour intervenir sur la conception, l’industrialisation et l’exploitation d’une plateforme AWS sécurisée et scalable. Vous rejoindrez une équipe Platform Engineering transverse, au service de multiples équipes produits, avec un fort enjeu d’automatisation, de standardisation et de fiabilité. La mission s’inscrit dans la durée (minimum jusqu’à fin 2026, avec possibilité de prolongation). Missions En tant que DevOps / Cloud Platform Engineer , vous interviendrez sur l’ensemble du cycle de vie de la plateforme cloud : Infrastructure & Cloud AWS Concevoir et maintenir une plateforme AWS multi-comptes (Organizations, Control Tower, gouvernance, sécurité). Définir des architectures cloud robustes et alignées avec les bonnes pratiques AWS . Mettre en place et maintenir des blueprints / golden paths pour différents types de workloads : Conteneurs (EKS, ECS, Fargate) Serverless (Lambda) Workloads traditionnels (EC2, Auto Scaling) Infrastructure as Code & Terraform Concevoir et développer des modules Terraform réutilisables (réseau, sécurité, compute, data). Gérer Terraform à l’échelle : Remote state (S3, DynamoDB) Versioning et lifecycle des modules Multi-environnements Détection et correction du drift CI/CD & Automatisation Construire et maintenir des pipelines CI/CD (GitLab CI, Jenkins) pour : Infrastructure et applications Tests automatisés Policy-as-Code (OPA / Conftest) Scans de sécurité (tfsec, Checkov) Déploiements automatisés (Atlantis, Spacelift, Terraform Cloud) Automatiser les tâches récurrentes via scripts Bash/Python ou outils internes. Exploitation, Sécurité & Fiabilité Mettre en place la supervision et l’observabilité : CloudWatch, OpenTelemetry Prometheus / Grafana Datadog, OpenSearch Définir et suivre les SLI/SLO . Assurer la sécurité des environnements : IAM en moindre privilège KMS, gestion des secrets (Secrets Manager, SOPS) Patching, scans IaC et images Participer au support avancé (L2/L3), à la gestion des incidents et aux post-mortems. Migration & Accompagnement Accompagner les équipes dans la migration de workloads on-premise vers AWS : Audits et assessments Choix des patterns d’architecture Adoption des templates et outils Support et coaching des équipes
Freelance

Mission freelance
Business / Functional Analyst ( H/F)

Publiée le
Business Analyst

3 mois
400-880 €
Île-de-France, France
Télétravail 100%
Dans le cadre du déploiement d’une plateforme digitale de surveillance des procédés de fabrication (SPC) à l’échelle de plusieurs sites industriels pharmaceutiques, nous recherchons un·e Business / Functional Analyst expérimenté·e. Le poste se situe à l’interface entre les équipes métiers (production, qualité, ingénierie) et les équipes IT , dans un environnement fortement réglementé (Gxp) Missions principales Recueillir, analyser et formaliser les besoins métiers des sites de production. Traduire les processus industriels en exigences fonctionnelles claires pour les équipes IT. Contribuer à l’harmonisation et à l’intégration des données de fabrication issues de systèmes hétérogènes. Participer à la conception fonctionnelle des écrans et tableaux de bord SPC, en collaboration avec le PO et les équipes UX/UI. Garantir la conformité GxP des fonctionnalités, données, documentations et validations. Rédiger et maintenir la documentation fonctionnelle et réglementaire (exigences, critères d’acceptation, validations). Participer activement aux rituels Agile (backlog refinement, sprint planning, ateliers métiers). Apporter une expertise métier sur les processus de fabrication et la surveillance de la performance des procédés.
CDI

Offre d'emploi
Data Engineer Talend - DAX

Publiée le
AWS Cloud
Azure
Snowflake

40k-50k €
Dax, Nouvelle-Aquitaine
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
CDI

Offre d'emploi
Business Analyst ServiceNow Module SPM

Publiée le
Business Analyst

60k-75k €
Issy-les-Moulineaux, Île-de-France
Nous recherchons un Business Analyst ServiceNow – Module SPM dont la mission sera d’assurer, au sein de l’équipe ServiceNow, l’analyse fonctionnelle et le pilotage en autonomie de plusieurs chantiers, notamment la mise en place du module de gestion de projet (SPM) sur la plateforme ServiceNow. Opérationnel : Analyse fonctionnelle de la mise en place de la gestion de projet pour le centre de services Data via le module SPM Analyse fonctionnelle du projet de gestion de la demande en collaboration avec le Directeur du centre de services Applications Pilotage et animation de la démarche de définition d’un modèle opérationnel de support avec les directeurs de domaines et les responsables des centres de services IT (Lignes de services) Rédaction des user stories à destination de l’équipe d’intégration ServiceNow Animation et participation aux phases de recette fonctionnelle des projets Accompagnement au changement auprès des utilisateurs et des parties prenantes. Gouvernance : Animation d’un point hebdomadaire d’avancement avec le Responsable Qualité SI Préparation et participation au comité de pilotage mensuel Pilotage en autonomie des projets confiés (qualité, coûts, délais) Livrables : Reporting d’activité
CDI

Offre d'emploi
Data Engineer Senior

Publiée le
Apache Kafka
Apache Spark
Hadoop

Paris, France
Télétravail partiel
En tant qu’Ingénieur Data Senior, vous jouerez un rôle clé dans la conception, le développement et l’optimisation de solutions data innovantes pour le secteur bancaire. Vous serez un membre essentiel de l’équipe Data Engineering et collaborerez avec des experts métiers, data scientists et développeurs pour transformer les plateformes digitales de nos clients. Vos missions principales Concevoir, développer et maintenir des solutions big data robustes et évolutives avec Hadoop, Spark, Kafka… Mettre en œuvre des pipelines de données temps réel et batch pour des cas d’usage complexes Garantir la qualité, la sécurité et la conformité des données à chaque étape du cycle de vie Intégrer des solutions de streaming avec Kafka pour des analyses quasi temps réel Développer et maintenir des microservices en Node.js Encadrer les ingénieurs juniors et promouvoir les bonnes pratiques
Freelance

Mission freelance
Expert DATA IA Sénior (SAS, Powershell, Batch, Shell) minimum de 7 ans d’exp/fa

Publiée le
IA
SAS

12 mois
Paris, France
Télétravail partiel
Expert DATA IA Sénior (SAS, Powershell, Batch, Shell) minimum de 7 ans d’exp/ Expert DATA IA Sénior avec un minimum de 7 ans d’expériences sur des projets similaires. Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Communications, bon relationnel Organisation et rigueur Sens du travail en équipe Autonomie Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Dans le cadre des projets transformants sous l'angle d'Agent IA supra, recherche à se renforcer pour piloter/cadrer certains travaux prioritaires avec un forte dominante Marketing. Ce travail nécessite une forte autonomie et une capacité à coordonner des acteurs multiples tout en arrivant à un consensus stratégique et technique. Le candidat devra pouvoir s'appuyer sur son expertise ainsi que celle de son cabinet sur la vertical Data IA : Benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Avant fin 2025, l'ensemble du chantier doit être pré-cadré (toutes les réunions organisées et cordonnées ; notes de réunions à envoyer le jour J/J+1 et livrables de cadrage complets à fournir) avec une feuille de route à plusieurs niveaux sur 2026 tout en préparant si besoin en 2025 des travaux nécessaires à la bonne tenue des jalons temporels de 2026. Principaux livrables : Construire la feuille de route du stream Data IA avant fin 2025 pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs. Compétences requises : Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Communications, bon relationnel Organisation et rigueur Sens du travail en équipe Autonomie
Freelance

Mission freelance
Développeur Back-End Java Quarkus & Expert Kubernetes / Outillage Platform

Publiée le
Java
Java QUARKUS
Openshift

6 mois
440-610 €
Île-de-France, France
Télétravail partiel
Pour le compte d'un grand groupe bancaire engagé dans une transformation digitale majeure, nous recherchons un expert technique pour rejoindre le centre d'expertise transverse (Architecture & Innovation). Vous intégrerez l'équipe "Conteneur" et API. Votre rôle ne sera pas de développer des fonctionnalités métiers, mais de concevoir et développer l'outillage critique permettant l'industrialisation des déploiements et la gestion de l'infrastructure applicative. Vos missions principales : Vous agirez en tant que développeur d'outils pour la plateforme interne ("Platform Engineering") : Concevoir et développer des outils conteneurisés en Java (Quarkus) facilitant les opérations des équipes techniques. Mettre en œuvre les bonnes pratiques GitOps (CI/CD) via ArgoCD pour automatiser les déploiements sur plusieurs projets. Développer des solutions techniques sur l'environnement OpenShift (Kubernetes). Réaliser des POC (Preuves de concept) sur les environnements GitLab/GitHub pour faire évoluer les standards de la banque. Assurer la qualité du code (tests unitaires, tests d'intégration) et la documentation technique des outils produits.
Freelance

Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - STAND - BY - 1005

Publiée le

10 mois
400-750 €
Guyancourt, Île-de-France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation
Freelance

Mission freelance
Architecte Cloud & Data – Projet Digital Manufacturing

Publiée le
Cloud

1 an
400-640 €
Île-de-France, France
Télétravail partiel
Dans le cadre de sa stratégie de transformation digitale, un grand groupe industriel recherche un Architecte Cloud & Data pour concevoir et mettre en œuvre une architecture moderne au service du digital manufacturing . L’objectif : moderniser et optimiser les processus de production via des solutions numériques avancées et une meilleure gouvernance de la donnée. 🧩 Missions principales Concevoir une architecture Cloud sécurisée, robuste et évolutive (Azure, AWS ou GCP). Intégrer des solutions de gestion et d’exploitation de la donnée (Data Lake, ETL, API, etc.) pour améliorer la performance des processus industriels. Collaborer étroitement avec les équipes internes (IT, OT, data, métiers) pour assurer une intégration fluide. Garantir la sécurité , la conformité et la scalabilité des solutions mises en place. Préparer l’architecture aux évolutions technologiques futures (Edge, IA, IoT industriel…).
Freelance
CDI

Offre d'emploi
Machine Learning Engineering

Publiée le
Agile Scrum
Big Data
CI/CD

12 mois
40k-48k €
500-570 €
Paris, France
Télétravail partiel
Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. La prestation de l'équipe : Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues : En interaction avec les membres de l’équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
2548 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous