Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 476 résultats.
Freelance
CDI

Offre d'emploi
Product Owner Data / IA

VISIAN
Publiée le
Agile Scrum
Microsoft Power BI
Product management

1 an
Paris, France
Contexte : Pilotage de produits analytics destinés aux équipes commerciales, avec un fort enjeu de valeur métier, d’adoption et de fiabilité des données. Activités principales • Définir la vision produit analytics et construire la roadmap. • Recueillir, cadrer et challenger les besoins métiers. • Prioriser le backlog et arbitrer selon la valeur business. • Rédiger les user stories data et critères d’acceptation. • Piloter le delivery des équipes analytics / BI. • Animer les rituels agiles (refinement, planning, reviews). • Suivre l’adoption, l’usage et l’impact business des produits data. • Garantir la qualité, la cohérence et la documentation des indicateurs. • Accompagner les équipes métiers dans l’utilisation des solutions analytics.
Freelance

Mission freelance
Architecte Solution - 2 jours TT

Intuition IT Solutions Ltd.
Publiée le
API
Architecture
AWS Cloud

1 an
550-620 €
Paris, France
- Définir la conception et la feuille de route pour refactorer les actifs technologiques existants en composants réutilisables (Source interne) - Concevoir des solutions d'IA et d'IA générative évolutives - Assurer l'intégration avec les paysages informatiques existants - S'aligner sur les normes et pratiques architecturales mondiales - Collaborer avec des équipes internationales pour co-concevoir des actifs d'IA partagés Bonne expertise en communication - Esprit collaboratif ; efficace pour travailler avec des équipes internationales et multiculturelles - Capacité à animer des ateliers et des sessions d'architecture - Solide expertise analytique et en résolution de problèmes - Grande adaptabilité dans des environnements très dynamiques - Expertise claire en documentation et présentation
CDI

Offre d'emploi
Ingénieur(e) DevOps Cloud expérimenté(e)

ANDEMA
Publiée le
AWS Cloud
Azure
Terraform

48k-54k €
Chambéry, Auvergne-Rhône-Alpes
Nous recherchons un(e) Ingénieur DevOps Cloud Senior pour renforcer l'équipe Cloud de l'un de nos clients. L’objectif est de poser la gouvernance des environnements Public Cloud , d’accompagner techniquement les collaborateurs et de contribuer à la mise en place de standards et bonnes pratiques pour les projets cloud sur Azure et AWS. Vous rejoindrez une équipe d'une vingtaine de personnes réparties sur trois périmètres Public Cloud, avec un rôle transversal et stratégique, garantissant la cohérence technique et opérationnelle des environnements cloud et hybrides. 🎯 Missions principales1️⃣ Gouvernance Cloud Définir et maintenir les standards et règles d’usage pour les Landing Zones Azure et AWS : RBAC, policies, tagging, compliance Sécurité et conformité (ISO, RGPD, SOC2) Mettre en place et administrer les mécanismes de contrôle (Azure Policy, AWS Config, Service Control Policies). Garantir la cohérence des environnements et la conformité aux bonnes pratiques cloud. 2️⃣ Intégration On-Prem & Hybrid Comprendre les contraintes des environnements existants (réseau, sécurité, containers, virtualisation). Assurer l’interopérabilité entre Cloud et On-Prem. Contribuer aux projets hybrides Cloud + Datacenter et à la gouvernance des workloads Kubernetes. Participer aux patterns de migration et à l’optimisation des architectures hybrides. 3️⃣ Automatisation & Infrastructure as Code Maintenir et faire évoluer les scripts Terraform pour la création et la configuration des Landing Zones. Automatiser les contrôles de conformité et les déploiements cloud. Optimiser les pipelines CI/CD et améliorer les processus DevOps. 4️⃣ FinOps & Optimisation Participer au suivi des coûts et à l’optimisation des ressources cloud. Mettre en place des alertes et reporting pour les usages cloud. Contribuer à la définition des budgets et à la rationalisation des services Cloud.
Freelance

Mission freelance
DATA ANALYST - Expert (>10 ans) F/H

SMARTPOINT
Publiée le
Apache Spark
Databricks
DataGalaxy

24 mois
550-580 €
Île-de-France, France
Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts du DataLab. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertise en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
Freelance

Mission freelance
Ingénieur de production applicatif (Diplôme d'ingénieur requis)

SELFING
Publiée le
CI/CD
Docker
Gitlab

12 mois
450-500 €
Saint-Rémy-lès-Chevreuse, Île-de-France
Dans le cadre du renforcement de l’équipe de production applicative, nous recherchons un(e) Ingénieur(e) de production applicatif pour intervenir sur l’intégration et l’exploitation des applications du Groupe. La mission est basée en région à Saint-Rémy-Lès-Chevreuse (78) Plus précisément, vos tâches seront les suivantes : • Intégrer de nouvelles applications en collaboration avec les prestataires et les responsables métiers • Assurer l’administration, la maintenance et la supervision des applications • Administrer et maintenir les environnements de développement et la chaîne CI/CD (intégration & déploiement continu) • Gérer le support applicatif et le traitement des incidents , en coordonnant les actions correctives • Rédiger et maintenir la documentation et les documents d’exploitation
CDI

Offre d'emploi
Ingénieur stockage H/F

DSI group
Publiée le
Ansible
Exadata
Python

44k-50k €
Bezons, Île-de-France
Nous recherchons un Ingénieur stockage H/F pour l'un de nos clients basé à Bezons en Ile de France. Missions principales: Gestion du stockage Administration des baies HITACHI (HUSVM, G5500, G370), incluant HCP Administration des baies HP EVA Suivi des recommandations éditeurs et mise en œuvre des préconisations Gestion des environnements systèmes Administration, maintenance et optimisation des serveurs Solaris Administration et maintien des systèmes Linux (principalement RedHat RHEL ) MCO et performance Garantir la disponibilité, la performance et la capacité des infrastructures de stockage Métrologie, optimisation et capacity planning Analyse des causes d’indisponibilité et des incidents récurrents Définition et mise en œuvre de plans d’actions correctifs et préventifs Gestion des incidents et changements Diagnostic, prise en charge et résolution des incidents techniques Gestion des changements mineurs et moyens Escalade vers les centres de compétences si nécessaire Automatisation & industrialisation Conception et automatisation de tâches via Ansible et AWX (contexte DevOps) Développement de scripts Python pour : Automatiser des tâches spécifiques Intégrer des outils tiers Contribution à l’industrialisation et à la standardisation des processus d’automatisation Infrastructures virtualisées Interventions sur des environnements : VMware ESX Hyper-V OPCA Exadata Projets, documentation et support Support technique aux équipes MCO applicatives et projets Réalisation d’études techniques et propositions d’évolution Intégration technique et mises en production (patchs, évolutions) Mise à jour et conformité de la documentation et des procédures Production de tableaux de bord et reporting (suivi des indicateurs)
Freelance

Mission freelance
Tech Lead Full-Stack Senior – Environnement Data & GenAI (H/F)

Freelance.com
Publiée le
BigQuery
CI/CD
Github

6 mois
400-640 €
Île-de-France, France
📍 Lieu : Saint-Ouen 📅 Démarrage : ASAP ⏳ Durée : 02/03/2026 → 31/12/2026 💼 Expérience requise : 9 ans minimum 🗣 Anglais : courant 🔎 Description du poste Dans un contexte d’innovation digitale autour des sujets Data, GenAI et performance média , vous intervenez en tant que Tech Lead / Développeur Full-Stack Senior au sein d’une équipe pluridisciplinaire (Tech Lead, Full-Stack, Data Scientist, Data Engineer, Product Owner, QA). Vous serez en charge de la conception et du développement d’applications permettant notamment d’offrir une vision consolidée de la performance des assets média, depuis la stratégie globale jusqu’à l’activation locale. Vos missions principales : Développer des applications front-end performantes et responsive (React.js, JavaScript moderne) Concevoir et exposer des API de consommation pour la valorisation des données (BigQuery, PostgreSQL, MongoDB) Concevoir et implémenter des services back-end en Node.js et Python (FastAPI) Modéliser et exploiter des données via MongoDB et PostgreSQL Sourcer les données dans le Data Lake BigQuery et alimenter des Knowledge Graph Mettre en place et maintenir les pipelines CI/CD (GitHub Actions, GitLab CI, Jenkins…) Être le référent technique auprès des équipes Cybersécurité, Data Privacy et Architecture Investiguer et résoudre les problématiques techniques (debug, performance, optimisation) Intervenir sur des sujets Cloud GCP
Freelance
CDI

Offre d'emploi
Concepteur Développeur Openprint H/F

Proxiad
Publiée le
AIX (Advanced Interactive eXecutive)
Python
Shell

3 ans
Île-de-France, France
Description du besoin Le contexte L’équipe Editique a besoin d’un concepteur OpenPrint. Il s’agit d’un concepteur documentaire utilisant l’outil Editique OpenPrint. Il connait les versions V7 OpenPrint et HCS 1.2. Les objectifs Compétences technique attendues : OpenPrint V7 OpenPrint HCS V1.2 Python, Shell AIX, SQL Compétence d’échanges et de dialogues avec les métiers et les équipes de recette Un plus : connaitre les métiers de l’assurance IARD et/ou d’Epargne (Vie, retraite…) Expertise attendue : 3 ans minimum d’expérience dans des environnements OpenPrint
CDI

Offre d'emploi
Développeur Backend H/F

Audensiel
Publiée le
Cloud
Java
Python

34k-55k €
Ollioules, Provence-Alpes-Côte d'Azur
En tant que développeur backend, vous interviendrez pour un client dans le domaine de la défense sur le développement et l'industrialisation de services backend. - Développer et maintenir des APIs REST backend - Concevoir des microservices en environnement cloud-native - Conteneuriser et déployer les applications avec Docker & Kubernetes - Mettre en place et améliorer les pipelines CI/CD (GitLab) - Écrire des tests unitaires et garantir la qualité du code - Travailler en méthodologie agile au sein d'équipes pluridisciplinaires
CDI

Offre d'emploi
Data Engineer H/F

HN SERVICES
Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI

45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Data Engineer expérimenté à sénior pour intervenir sur un projet Data pour l’un de nos clients situé à Aix-en-Provence. Contexte et mission : Dans le cadre du renforcement de l’équipe Data, vous serez intégré.e à une squad dédiée à la création d’une infrastructure robuste pour le produit DATA. Vous participerez à la conception et au développement de processus d’ingestion, de transformation et d’exposition des données sur la plateforme Google Cloud Platform (GCP). Vous collaborerez étroitement avec d’autres équipes pour : Mettre en place les jobs d’ingestion et de préparation des données. Développer des pipelines de données performants et maintenables. Exploiter les outils de l’écosystème cloud : Composer, dbt, BigQuery. Contribuer à l’amélioration continue des capacités de livraison du produit DATA. Environnement technique : GCP BigQuery, Linux, Python, SQL, dbt, Composer.
CDI

Offre d'emploi
Ingénieur DevOps Kafka Streaming - F/H

AVANISTA
Publiée le

Guyancourt, Île-de-France
Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Ingénieur DevOps Kafka streaming au sein de nos équipes pour l'un de nos clients. Le contexte ? Le pôle technologique CCXP conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du Client En tant que data ops engineer, vous rejoindrez l'équipe Interfaces, répartie en 3 squads orientées produit dont le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production Plus particulièrement vous intégrerez la squad Streaming qui est composée de 7 personnes et qui gère le build et le run de la plateforme streaming composée de plus de 30 clusters Kafka (Confluence) dédiés. En tant que Devops Streaming, vous évoluerez dans un environnement technique complexe, distribué, sécurisé et hautement disponible. Vos missions : - Mise en oeuvre opérationnelle et techniques de la plateforme Streaming - Industrialiser et automatiser les déploiements avec Ansible - Apporter une expertise technique aux utilisateurs de la plateforme - Mettre en production de nouveaux clusters et mettre à l'échelle les clusters existants (scale horizontal et vertical) - Participer à la définition des architectures des futures briques de la plateforme Streaming - Développer des prototypes en lien avec les cas d'usages des entités - Démontrer la valeur des offres Data auprès des entités - Participer au Daily meeting animé par le Squad Lead - Participer à l'ensemble des rituels agiles de la Squad (Rétro, Démos, Pi Planning) - Participer aux réunions de co-construction de la roadmap et de la mise en oeuvre de la roadmap sous la gestion du product owner Data et du responsable de la Squad dont il dépend - Prendre des éléments de la backlog qui ont été formalisée par le Squad Lead et mettre en oeuvre les éléments de la backlog - Rendre compte des difficultés auxquelles il est confronté et proposer des solutions pour les résoudre - Collaborer en équipe avec les membres de la Squad et son Squad Lead - Être le lead sur un produit technique au sein de cette Squad - Participer à l'élaboration des formations, WebTech et Démos aux référents Clusters et Entités qui consomment ou pourraient consommer les produits - Participer aux astreintes technique de la Squad Streaming messaging kafka DevOps
Freelance

Mission freelance
Développeur AWS / Amazon Connect

Axysse
Publiée le
Agent IA
AWS Cloud
GitLab CI

1 an
400-550 €
Île-de-France, France
🚀 Développeur AWS / Amazon Connect – Serverless (RUN & BUILD) 📍 Région parisienne – Mode hybride 📅 Démarrage : ASAP Dans le cadre d’un remplacement, nous recherchons un Développeur AWS senior pour intervenir sur une plateforme Contact Center internationale en forte croissance, utilisée par plus de 1 000 conseillers répartis sur une douzaine de centres. Vous interviendrez dans un environnement RUN + BUILD , au cœur d’un écosystème cloud moderne et structuré. 🎯 Vos missions🔹 Amazon Connect (Build & Run) Évolutions sur les parcours IVR, routing, queues, prompts, hours Exploitation et évolution des fonctionnalités analytics / transcripts Support production : analyse d’incidents, RCA, correctifs Contribution aux évolutions voix et intégrations IA selon roadmap 🔹 Développement AWS Serverless Développement de fonctions Lambda et APIs en Node.js et/ou Python Respect des standards qualité (clean code, tests unitaires, maintenabilité) Intégrations avec des systèmes tiers (CRM, SSO, APIs internes) 🔹 Data & Reporting Maintien et évolution de pipelines data (streaming → stockage → requêtage) Exploitation des données pour les besoins métiers 🔹 CI/CD & Infrastructure Pipelines GitLab, quality gates, déploiements multi-environnements Infrastructure as Code (Terraform) Participation aux mises en production et au troubleshooting 🛠 Environnement technique Amazon Connect (multi-région) AWS Lambda, API Gateway, CloudWatch Node.js, Python Terraform GitLab CI/CD Kinesis, S3, Athena Intégrations CRM / SSO Sujets voix & analytics avancés
CDI
Freelance

Offre d'emploi
Ingénieur devOps (H/F)

Aleysia
Publiée le
Ansible
AWS Cloud
Azure

12 mois
Grenoble, Auvergne-Rhône-Alpes
Les bonnes pratiques DevOps n’ont plus de secret pour toi et tu souhaites mettre à profit ton expertise dans des projets innovants ? C’est sans doute toi qu’on attend pour compléter notre équipe en intégrant ce poste d’ Ingénieur DevOps ! 🚀 Ton challenge si tu l’acceptes : Accompagner les équipes de développement et d'infrastructure dans l'implémentation des pratiques DevOps Concevoir et maintenir les pipelines CI/CD Automatiser le déploiement et certaines procédures afin d'optimiser la gestion des infrastructures Assurer le bon fonctionnement, la disponibilité ainsi que la sécurité des systèmes et des applications Contribuer aux décisions d'architecture et faire preuve d'une expertise auprès de nos clients Gérer les incidents et problèmes liés aux environnements de production
CDI

Offre d'emploi
Administrateur système linux F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ansible
CentOS
Gitlab

Bezons, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Scientist expérimenté (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
Ocaml

46k-51k €
Massy, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Architecte Cloud GCP H/F

Le Groupe SYD
Publiée le
DevOps
DevSecOps
Gitlab

12 mois
52k-59k €
560-600 €
Rennes, Bretagne
🌟 Quel sera ton poste ? 🌟 💼 Poste : Architecte Cloud GCP H/F 📍Lieu : Rennes (35) 🏠 Télétravail : Flexible 📝Contrat : Portage ou Freelance Contexte client : Tu rejoins un acteur majeur du secteur du transport maritime , engagé dans une transformation profonde de ses infrastructures IT et dans la structuration de sa stratégie Cloud & DevOps. Dans un contexte de transition au sein de l’équipe Architecture , l’entreprise recherche un(e) Architecte Cloud capable d’assurer un biseau entre un architecte sortant et son successeur, tout en garantissant la qualité et la continuité des projets en cours. Tu auras pour missions de : Concevoir et déployer des solutions cloud natives sécurisées et évolutives. Accompagner la migration des environnements on‑premise vers GCP . Automatiser et fiabiliser les pipelines CI/CD (GitLab, Flux). Mettre en œuvre des pratiques DevOps et DevSecOps avancées. Optimiser les coûts, les performances et la consommation cloud ( FinOps ). Contribuer à la stratégie Cloud & IA du groupe et à la veille technologique. Vulgariser les enjeux techniques et renforcer la collaboration entre équipes techniques et métiers. Travailler en coordination étroite avec les architectes et les équipes de la cellule Cloud. 🧰 Stack technique : Cloud : Google Cloud Platform (GCP) Orchestration : Kubernetes / GKE, Anthos CI/CD & GitOps : GitLab, Flux Sécurité & IAM : Keycloak API Management : Kong Méthodes : DevOps, DevSecOps, FinOps
1476 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous