Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 132 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer - SPARK/SCALA

Publiée le
Apache Airflow
Apache Spark
PySpark

12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Freelance

Mission freelance
IT Project Manager Cloud – Senior H/F

Publiée le
Cloud

3 mois
400-550 €
Île-de-France, France
Nitrolabz est une société de conseil et de services en ingénierie informatique, spécialisée dans la mise à disposition d’experts technique, le développement de solutions digitales, et l’intégration de technologies de pointe. C’est aussi une marque du groupe Sync Digitals, fondé en 2017 en Suisse, dont la vocation première est de fournir des services et des solutions informatiques. Au fil des années le groupe s’est agrandi avec des rachats ou des prises de participations successives de structures innovantes en plein essor. Dans le cadre du renforcement et structuration de nos services, nous recherchons un Project manager cloud expérimenté à l’aise dans les environnements internationaux, pour accompagner un grand acteur du secteur de l’assurance dans sa transformation digitale. . Dans ce rôle à temps plein, vous serez responsable de l'analyse des processus métiers et de la formulation des exigences commerciales. Au quotidien, vous collaborerez avec les parties prenantes pour identifier les besoins, améliorer les processus existants et élaborer des solutions efficaces. Entreprise handi-accueillante : à compétences égales, une attention particulière est portée aux candidatures des personnes en situation de handicap. Nous recherchons un Project manager cloud expérimenté, 📍 Lieu :IDF 📅 Démarrage : ASAP 🌍 Contexte : Environnement anglophone – secteur assurance 🤝 Statut : Freelance ou partenaire Mission: Piloter des projets Cloud complexes (cadrage, déploiement, run) Coordonner les équipes techniques & métiers Garantir la qualité, les délais et la maîtrise des coûts Contribuer à la stratégie Cloud et FinOps vous êtes passionné(e) par la transformation digitale et les environnements Cloud ? Rejoignez notre ambitieuse pour piloter des projets stratégiques de migration, modernisation et gouvernance Cloud (AWS / Azure / GCP). Notre Culture : La culture de Nitrolabz repose sur un équilibre entre exigence technologique et valeurs humaines fortes. Dans un environnement à taille humaine, chaque collaborateur compte et participe directement à la réussite collective. Transparence, respect, écoute et épanouissement personnel sont au cœur de notre façon de travailler, tout comme la volonté de donner du sens à nos missions à travers des engagements responsables (RSE, diversité, durabilité). Ici, on valorise l’esprit entrepreneurial, la curiosité et l’envie de construire ensemble, avec la conviction que la performance vient de la confiance et de la collaboration. Quels seront vos challens? Chez Nitrolabz, nous relevons un défi de taille : grandir et nous démarquer dans un marché IT ultra-compétitif. Notre ambition ? Aller au-delà du rôle classique d’ESN pour devenir un partenaire stratégique incontournable, là où sécurité, data et innovation se rencontrent. Chaque jour, nous travaillons à construire une identité forte, capable d’attirer les meilleurs talents, d’accompagner nos clients dans leurs enjeux les plus critiques et de transformer nos valeurs humaines et RSE en véritable avantage concurrentiel. Rejoindre Nitrolabz, c’est participer à une aventure où tout reste à construire et où chacun a un rôle clé pour faire la différence. Ce que nous offrons: Pour nos clients, Nitrolabz n’est pas seulement un prestataire IT, mais un véritable partenaire. Nous les accompagnons dans leurs projets de transformation digitale. Notre force: une expertise technique pointue, une approche agile et humaine, et une proximité qui garantit des solutions sur-mesure et réellement alignées avec leurs enjeux business. Grâce à notre double ancrage franco-suisse, nous apportons une vision unique, innovante et sécurisée, tout en inscrivant chaque collaboration dans une démarche durable et responsable.
CDI

Offre d'emploi
Data Engineer NiFi

Publiée le
Apache NiFi

40k-65k €
Île-de-France, France
Télétravail partiel
En tant que Data Engineer chez Smile, vous ferez partie de notre aventure où chaque jour est une nouvelle occasion de construire des solutions qui dépassent les attentes de nos clients (et les vôtres !)🧑‍🚀👩‍🚀 Ce que vous ferez en tant que Data Engineer chez Smile ? Conception et développement de pipelines de données (ETL/ELT). Maintenance et optimisation de l'infrastructure de données. Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes). Collaboration avec les équipes de data science et d'analyse. Automatisation des processus de gestion des données. Veille technologique sur les outils et technologies de données. Côté technique justement, vous évoluerez dans un environnement Open Source ☕: Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). Analyse de données et Business Intelligence : Visualisation (Power BI, Tableau), reporting, analyse prédictive, bases de données SQL/NoSQL. Développement logiciel et programmation : Développement backend, langages (Python, Java, Scala, R), API, intégration continue (CI/CD). Recherche et indexation de données : Moteurs de recherche (Elasticsearch, Solr), recherche full-text, optimisation de la performance des requêtes. Vous intègrerez un environnement stimulant où votre expertise et votre passion seront reconnues 💥. Nous vous invitons à participer à des projets captivants et à contribuer à notre croissance commune🌱. Smile s’engage pour un environnement où la diversité est une force et l’inclusion, un pilier. Ici, chaque talent est reconnu, respecté et encouragé à aller plus loin.
Freelance

Mission freelance
DBA Oracle / Postgres / MS SQL

Publiée le
Linux
PostgreSQL
Terraform

1 an
100-450 €
Lille, Hauts-de-France
Vous intégrerez l’équipe technique INIX (Équipe PAAS). Cette équipe est constituée de plusieurs experts DBA (Oracle / Postgres) dont la mission est la gestion du RUN, l'expertise technique et le pilotage de projets autour de l'ensemble du parc de bases de données (PostgreSQL, Oracle et MS SQL). Nos environnements sont répartis sur une architecture Multi-Cloud (AWS, GCP et AIVEN). L'objectif de l'équipe est de garantir la stabilité des plateformes clientes, de fournir des services de consulting interne, mais également de moderniser les outils d'administration par l'innovation et le partage technique. 1. Expertise Base de Données et Architecture Assurer le RUN : gestion des incidents, maintien en condition opérationnelle et traitement des demandes sur les moteurs PostgreSQL, Oracle et MS SQL. Accompagner les équipes clientes dans le design de leurs architectures et le choix des solutions techniques adaptées. Réaliser des audits de performance : optimisation des instances et tuning fin de requêtes SQL. Produire et maintenir la documentation technique et les procédures d'exploitation. 2. Dimension CloudOps : Automatisation et Observabilité Dans une démarche d'amélioration continue, vous pourrez apporter une dimension « Ops » aux opérations courantes : Infrastructure as Code (IaC) : Contribuer à l'industrialisation et au déploiement des ressources via Terraform. Observabilité : Mettre en place ou affiner le monitoring et l'alerting via la solution Datadog. Conteneurisation : Intervenir sur des environnements modernes et participer aux sujets liés à l'orchestration sous Kubernetes.
Freelance

Mission freelance
Consultant Observabilité

Publiée le
Dynatrace

6 mois
Nantes, Pays de la Loire
Télétravail partiel
Dans le cadre d’un projet de transformation à grande échelle, l’un de mes clients recherche un prestataire afin de renforcer son équipe Observabilité basée en région nantaise. L’objectif : accompagner la montée en maturité du monitoring, du reporting de performance et de la supervision des environnements complexes. Une expérience sur Dynatrace serait un vrai plus, tout comme une maîtrise de solutions telles que Prometheus, Grafana, ELK/Elastic Stack, Splunk, ou encore des compétences en APM, SRE, Kubernetes, Cloud (AWS/Azure/GCP) et CI/CD. Si vous êtes freelance, disponible prochainement, et que vous souhaitez intervenir sur un projet à forte valeur ajoutée, je peux vous mettre en relation avec le client.
Freelance

Mission freelance
Lead MLOps Python - Spécialiste IA/RAG

Publiée le
IA
MLOps
Python

3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Freelance

Mission freelance
Senior JAVA Developpeur (H/F)

Publiée le
Elasticsearch
Microservices

18 mois
500-550 €
Paris, France
Télétravail partiel
Notre client, Scale-Up Tech en forte croissance, accélère le renforcement de ses équipes techniques. Dans un contexte d’innovation soutenue (IA, nouveaux produits digitaux, optimisation de plateformes), le département Tech – plus de 350 collaborateurs – recherche plusieurs Développeurs Java (Juniors et seniors) pour renforcer ses squads produit et accompagner la montée en charge de ses applications web à fort trafic. Vos missions : Intégré à une squad produit composée d’un Product Manager, d’un Manager Java, de 5 développeurs et d’un testeur applicatif, vous interviendrez sur la conception, le développement et l’évolution d’applications web à fort trafic et haute disponibilité. Vos principales responsabilités : * * Concevoir et développer des fonctionnalités backend et ponctuellement front (80/20) en microservices. * Participer à la conception technique, aux revues de code et aux choix d’architecture. * Garantir la qualité, la performance et la robustesse du code. * Collaborer avec les équipes design, architecture, infra et data. * Contribuer aux bonnes pratiques : tests, CI/CD, revue de code, clean code. ### Stack technique * Langage : Java 21 (migration vers Java 25 prévue) * Framework : Spring Boot * Front : React / Redux * Messaging : Kafka * Base de données : PostgreSQL * Recherche : Elasticsearch * Infra : Docker, Kubernetes, AWS, Google Cloud * Méthodologie : Agile / Scrum
CDI
Freelance

Offre d'emploi
DevOps/SysOps/LLM/RAG

Publiée le
DevOps
Large Language Model (LLM)
RAG

3 ans
47k-97k €
400-800 €
Île-de-France, France
Périmètre DevOps & SysOps 1. Automatisation & Déploiement Mise en place d’un pipeline CI/CD complet : build, tests, déploiements et releases. Déploiement automatisé de l’API backend et de tous les modules associés. Gestion de l’infrastructure pour garantir une mise en production fiable et répétable. 2. Supervision & Observabilité Mise en œuvre de la surveillance des composants LLM et IA générative (logs, métriques, alertes). Monitoring et reporting des KPIs de performance, d’usage et de qualité. 3. Sécurité & Conformité Configuration et gestion de l’authentification, autorisation et gestion des accès. Respect des exigences sécurité du Groupe BNP et des règles d’accessibilité RGAA . Mise en place de la gestion et rotation des secrets, tokens et credentials. 4. Exploitation & Résilience Rédaction de la documentation technique d’exploitation et d’intégration. Mise en place et automatisation des procédures de sauvegarde et restauration (données, contextes, historiques). Gestion de la scalabilité : montée en charge, load-balancing, optimisation des performances. Définition et application de la politique de gestion des incidents, astreintes et SLA. Expertises fonctionnelles et techniques : Compétences requises Compétences techniques essentielles (synthèse) 1. Cloud & Infrastructure Maîtrise d’un cloud (AWS, Azure, GCP) Infrastructure as Code : Terraform, Ansible Architectures scalables et haute disponibilité 2. Conteneurs & Orchestration Docker Kubernetes / OpenShift (déploiement, scaling, secrets, monitoring) 3. CI/CD & Automatisation Pipelines GitLab CI, GitHub Actions, Jenkins Automatisation build/test/deploy Sécurisation des pipelines 4. Observabilité Logs : ELK, Splunk Monitoring : Prometheus, Grafana, Datadog Suivi spécifique LLM/IA : performance, coûts, dérives 5. Sécurité Authentification/autorisation (OAuth2, OIDC, SAML) Gestion des secrets (Vault, KMS) Sécurité API et conformité RGAA 6. Backend & APIs Compréhension des APIs REST/GraphQL Connaissance de base en Python / Node.js / Java Microservices 7. Bases de données PostgreSQL, MongoDB, Redis Backup/restore, stockage objet 8. Exploitation & Incidents Runbooks, SLA, ITIL Tableaux de bord et KPIs d’usage/performance 9. IA Générative (bonus fortement recommandé) Appels API LLM Gestion des prompts et contextes Notions de RAG et sécurité IA
Freelance

Mission freelance
Consuntant FinOps / Financial performance

Publiée le
FinOps

9 mois
Auvergne-Rhône-Alpes, France
Télétravail partiel
Client : Grand Groupe Industriel – Lyon Durée : 9 à 12 mois Démarrage : début T1 2026 Mode : 3 jours sur site / 2 jours remote Budget : selon séniorité Description du poste Dans le cadre du renforcement de son équipe Cloud & FinOps, notre client — un grand groupe industriel international — recherche un Consultant FinOps / Financial Performance pour accompagner la gestion, l’optimisation et la gouvernance financière de ses environnements cloud (AWS, Azure, GCP). Votre mission consistera à structurer, piloter et améliorer la performance financière des plateformes cloud & SaaS, en collaboration étroite avec le responsable FinOps, les équipes Cloud Engineering, les Achats et les équipes Métiers. Vos responsabilités principales : 1. Pilotage et analyse financière du Cloud Suivi quotidien et mensuel des dépenses Cloud & SaaS. Analyse détaillée des coûts (AWS, Azure, GCP). Identification des dérives, anomalies et axes d’optimisation. 2. Gouvernance & optimisation FinOps Mise en place des modèles de gestion des coûts : allocation, chargeback/showback. Déploiement et suivi des politiques d’optimisation (réservations, Savings Plans, rightsizing, rationalisation, stockage). Définition des règles de tagging et des bonnes pratiques. Animation des comités FinOps. 3. Prévisions et budgétisation Construction des forecasts trimestriels et annuels. Participation aux travaux budgétaires avec les équipes finance. Anticipation des risques financiers liés aux évolutions de charge et aux nouveaux projets. 4. Reporting & communication Création et mise à jour des dashboards financiers et opérationnels (Power BI, Clic, équivalent). Production de rapports destinés aux équipes techniques, aux directions et aux métiers. Vulgarisation des enjeux financiers du cloud. 5. Support aux projets Cloud Accompagnement à la structuration des coûts dans les nouveaux projets. Revue des architectures sous l’angle performance financière. Interaction avec les fournisseurs cloud pour optimiser les engagements et contrats.
Freelance

Mission freelance
Junior JAVA Developpeur (H/F)

Publiée le
PostgreSQL

1 mois
350-400 €
Paris, France
Télétravail partiel
Notre client, Scale-Up Tech en forte croissance, accélère le renforcement de ses équipes techniques. Dans un contexte d’innovation soutenue (IA, nouveaux produits digitaux, optimisation de plateformes), le département Tech – plus de 350 collaborateurs – recherche plusieurs Développeurs Java (Juniors et seniors) pour renforcer ses squads produit et accompagner la montée en charge de ses applications web à fort trafic. Vos missions : Intégré à une squad produit composée d’un Product Manager, d’un Manager Java, de 5 développeurs et d’un testeur applicatif, vous interviendrez sur la conception, le développement et l’évolution d’applications web à fort trafic et haute disponibilité. Vos principales responsabilités : * * Concevoir et développer des fonctionnalités backend et ponctuellement front (80/20) en microservices. * Participer à la conception technique, aux revues de code et aux choix d’architecture. * Garantir la qualité, la performance et la robustesse du code. * Collaborer avec les équipes design, architecture, infra et data. * Contribuer aux bonnes pratiques : tests, CI/CD, revue de code, clean code. ### Stack technique * Langage : Java 21 (migration vers Java 25 prévue) * Framework : Spring Boot * Front : React / Redux * Messaging : Kafka * Base de données : PostgreSQL * Recherche : Elasticsearch * Infra : Docker, Kubernetes, AWS, Google Cloud * Méthodologie : Agile / Scrum
Freelance
CDI

Offre d'emploi
Ingénieur DevOps IA

Publiée le
Linux
Python

1 an
40k-45k €
330-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Au cœur du AI Innovation Lab d'un groupe bancaire international multi‑entités, vous aurez pour mission de concevoir, déployer et expérimenter des Proof‑of‑Concept (POC) innovants autour des agents autonomes et des modèles de langage (LLM) appliqués aux jeux de données d'infrastructures IT. L'objectif : fournir des aides intelligentes à la production, faciliter la supervision, l'automatisation et la résolution proactive d'incidents. Le poste s'inscrit dans une démarche agile, collaborative et orientée industrialisation à terme. Missions principales Concevoir et gérer des environnements d'expérimentation Kubernetes/Docker avec intégration CI/CD (Jenkins, GitLab CI/CD, ArgoCD). Automatiser la collecte, la pré‑traitance et l'exploitation des datasets d'infrastructure (logs, CMDB, monitoring) pour entraîner et alimenter des agents basés sur LLM. Développer et intégrer les pipelines de déploiement d'agents IA en collaboration avec les data‑scientists et ingénieurs IA (utilisation de LangChain, AutoGen ou équivalents). Implémenter des scripts et outils en Python, Bash, Go pour l'automatisation des tâches infra, l'orchestration et le monitoring. Garantir la sécurité du développement et des déploiements dans un environnement réglementé : DevSecOps, outils SAST/DAST, gestion des accès, conformité RGPD. Produire la documentation technique des POC, rédiger les spécifications d'industrialisation pour les équipes produit. Assurer une veille technologique continue sur les évolutions des architectures agentiques, LLM et de l'automatisation infra. Compétences techniques clés - Systèmes d'exploitation : maîtrise avancée de Linux/Unix et des concepts réseaux (TCP/IP, HTTP, DNS, VPN). Cloud & IaC : AWS, Azure, GCP – Terraform, Pulumi, CloudFormation. Conteneurisation & orchestration : Docker, Kubernetes, Helm. CI/CD : Jenkins, GitLab CI, ArgoCD. Automation configuration : Ansible, Puppet, Chef. Langages : Python (expert), Bash, Go (appréciés). Monitoring & logging : Prometheus, Grafana, ELK Stack.
Freelance

Mission freelance
Data Engineer (IA/Géospatial) (H/F)

Publiée le
MLOps
Python

6 mois
300-350 €
Toulouse, Occitanie
Télétravail partiel
Notre client, spécialiste du Traitement et Analyse de données, est à la recherche de son futur Data Engineer (IA/Géospatial) (H/F) pour son site de Toulouse, dans le cadre de son activité. Intégré aux équipes du client, vous devrez : * Développer et industrialiser des pipelines et modèles IA exploitant des données géospatiales et météorologiques, dans un environnement cloud-native. ## Compétences techniques attendues * Données météo & satellites Maîtrise des formats (NetCDF, GeoTIFF, HDF5), outils Python (xarray, rasterio…), prétraitement d’images, expérience Sentinel-1/2 et données météo (ARPEGE, AROME, GFS, ERA5). * Data Engineering Pipelines ETL/ELT scalables, orchestration (Airflow, Prefect, Argo), bases de données (PostgreSQL/PostGIS, MongoDB, Snowflake), optimisation des accès. * MLOps & DevOps Déploiement de modèles (CI/CD, monitoring), outils ML/Cloud (MLflow, SageMaker, Docker, Kubernetes, Terraform), AWS/Azure/GCP. * Développement logiciel Python, frameworks web (FastAPI, Django, Flask), bonnes pratiques (tests, docs, versioning).
Freelance

Mission freelance
Ingénieur Logiciel IA Agentique

Publiée le
API
CI/CD
Cloud

1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Contexte : Dans le cadre d’un programme d’innovation autour de l’ intelligence artificielle agentique , nous recherchons un Ingénieur Logiciel IA Agentique pour concevoir, développer et industrialiser des agents d’IA autonomes à grande échelle. La mission s’inscrit dans une démarche de transformation technologique ambitieuse visant à automatiser des processus et à faire émerger de nouvelles capacités métiers grâce aux technologies LLM et aux systèmes d’agents intelligents. Vos missions : Concevoir et déployer des agents IA autonomes de bout en bout, du POC à la mise en production (LangChain, , etc.) Développer des connecteurs métiers (MCP) vers les outils internes (Jira, Confluence, SAP, Oracle, Office365) Concevoir des interfaces web modernes et des APIs performantes Industrialiser une infrastructure multi-cloud (Docker, Kubernetes, CI/CD) pour un usage à grande échelle Optimiser l’orchestration multi-modèles (GCP Vertex AI, AWS Bedrock, Azure OpenAI, Mistral) Contribuer à la R&D sur les nouvelles approches agentiques et à la veille technologique IA Documenter et maintenir les solutions mises en œuvre Compétences techniques requises : Python (niveau production industrielle) JavaScript / TypeScript (interfaces web modernes) Expérience avec LangChain ou framework d’orchestration d’agents IA (projets personnels acceptés) Maîtrise d’un ou plusieurs clouds publics : GCP, AWS, Azure Bonnes connaissances de Docker , CI/CD , et des pratiques DevOps Maîtrise d’un framework JS moderne : React , Vue.js ou Next.js Vision « production-ready », sens du design technique et de la performance Capacité à apprendre rapidement et à s’adapter à un environnement technologique évolutif Compétences appréciées : Traitement de la voix en temps réel (speech-to-text, text-to-speech, conversation vocale) Connaissance des APIs de streaming (OpenAI Realtime API, Anthropic streaming…) Expérience avec WebRTC ou WebSockets pour le streaming audio
CDI

Offre d'emploi
CDI - Tech Lead Java

Publiée le
Java

Île-de-France, France
Télétravail partiel
Contexte du poste : Dans un contexte de croissance et de modernisation des systèmes d’information , notre client renforce ses équipes avec un Tech Lead Java capable de jouer un rôle central : leader technique, moteur de la vision, et ambassadeur de la stack aussi bien en interne qu’en externe. Ce poste s’adresse à un profil qui ne se contente pas d’implémenter, mais qui embarque, convainc et fait grandir : auprès des développeurs, des équipes produit, et ponctuellement auprès des clients , lors de présentations ou de cadrages techniques. Votre rôle : Vous êtes le référent technique de l’équipe et le garant de la cohérence globale des choix technologiques. Vous combinez exemplarité technique , leadership naturel et capacité à vulgariser pour porter la vision et donner du sens aux décisions. Missions principales : Incarner le leadership technique Encadrer, accompagner et faire monter en compétence une équipe de développeurs, en instaurant des standards clairs et partagés. Être un Tech Lead hands-on Participer activement au développement back-end Java (60 à 80 % du temps), avec un rôle moteur sur les sujets complexes. Porter et expliquer la vision technique Concevoir, faire évoluer et défendre les architectures applicatives (microservices, APIs, intégrations), en sachant les expliquer clairement à des interlocuteurs techniques et non techniques. Garantir l’excellence du delivery Mettre en place et faire respecter les bonnes pratiques : revues de code, tests automatisés, CI/CD, clean code. Piloter la modernisation de la stack Accompagner les migrations et la montée en maturité technique (Spring Boot, Docker, Kubernetes, cloud). Jouer un rôle d’évangélisateur Faire de la veille, challenger l’existant, proposer des améliorations continues et embarquer les équipes autour des choix techniques. Être un interlocuteur crédible côté client Participer à des cadrages, présentations ou échanges techniques avec des clients ou partenaires, en véritable ambassadeur de la plateforme . Profil recherché : > 10 ans d’expérience en développement Java, avec une expérience avérée en lead technique . Très forte maîtrise de l’écosystème Java / Spring / Spring Boot et des architectures distribuées. Goût prononcé pour la transmission , le mentoring et le partage de bonnes pratiques. Leadership naturel, capacité à fédérer sans autorité hiérarchique. Excellentes compétences de communication et de vulgarisation technique. À l’aise pour prendre la parole , expliquer, convaincre et représenter la tech. Formation Bac +5 (école d’ingénieurs ou université). Compétences techniques attendues : Langages / Frameworks : Java, Spring, Spring Boot, Spring Security Architecture : microservices, REST / SOAP, MVC Front (bonus) : Angular ou équivalent DevOps : Docker, Kubernetes, Jenkins, Git Data & Messaging : PostgreSQL, MySQL, MongoDB, Kafka Environnements : Tomcat, cloud (AWS / Azure / GCP) Bonnes pratiques : CI/CD, tests automatisés, clean code Pourquoi ce poste est différent : Vous ne serez pas “juste” un Tech Lead, mais la voix de la tech . Vous aurez un vrai espace d’influence sur les choix, la vision et la culture technique. Vous incarnerez la stack, en interne comme auprès des clients.
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Freelance

Mission freelance
Testeur Technique / Intégrateur Industry 4.0 - BELGIQUE

Publiée le
MES (Manufacturing Execution System)

6 mois
550 €
Belgique
Télétravail partiel
Nous recherchons un(e) Intégrateur(trice) Industry 4.0 pour rejoindre l’équipe Manufacturing 4.0 d’un grand acteur de l’aéronautique, dans le cadre d’un projet ambitieux de modernisation des systèmes industriels et digitaux de l’usine du futur. Contexte : Les usines produisent des éléments de turboréacteurs en titane avec une précision extrême (jusqu’à 10 µm). L’équipe Manufacturing 4.0 apporte des outils digitaux et des moyens technologiques pour soutenir les équipes métiers et la production industrielle. Le projet vise à concevoir et déployer une solution Industry 4.0 intégrée, performante, sécurisée et scalable, incluant robotique, pilotage par la donnée et intelligence artificielle. Vos missions principales : Assurer l’intégration des différents modules du système d’information industriel. Préparer et réaliser les tests techniques du système « Usine du futur » : robustesse, performance, scalabilité, sécurité, traçabilité. Analyser les protocoles, flux et structures de données. Identifier et corriger les problèmes, proposer des améliorations. Participer à l’optimisation des performances du système et à la mise en place de la chaîne CI/CD. Collaborer étroitement avec les équipes IT, MES, UNS, PLM, maintenance et qualité industrielle. Profil recherché : Ingénieur ou bachelor expérimenté en informatique, avec 5+ ans sur des projets de grands systèmes d’information. Expérience en intégration de systèmes industriels et tests techniques approfondis (Recette, IVVQ, Qualification, Acceptance). Curiosité technique et capacité à résoudre les problèmes. Connaissance du monde industriel/OT et des architectures SI industrielles (atout). Bon relationnel, autonome et capable de travailler en équipe. Maîtrise du français à l’oral et à l’écrit ; anglais technique apprécié. Compétences techniques requises : Connaissance des architectures de systèmes d’information. Expérience sur cloud public (AWS, Azure, GCP). Idéalement : MES, conteneurs (Podman), IIOT, brokers (Kafka, MQTT), plateformes Big Data/Data Lakes. Certifications ISTQB, Katalon Practitioner ou équivalent appréciées. Conditions : Mission de 4 mois, possible extension. Présentiel sur le site industriel (Belgique) avec télétravail possible 1 à 2 jours/semaine. Horaires de jour, flexibles selon interventions. Qualités attendues : Autonomie, pro-activité, curiosité et esprit critique constructif. Esprit d’équipe, polyvalence et orientation résultat.
132 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous