Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 708 résultats.
Mission freelance
Expertise Elastic / Kafka
Root-MENU
Publiée le
Apache Kafka
Grafana
Python
6 mois
600-800 €
Niort, Nouvelle-Aquitaine
Dans le cadre de l’évolution de son système d’information nous recherchons un profil disposant de compétences avérées en matière d'expertise Kafka / Elastic pour développer, industrialiser et automatiser la plateforme Kafka / Elastic. ∗ Assister et conseiller dans le choix et l’utilisation des méthode ∗ Informer sur les évolutions ∗ Former aux nouvelles technologies et systèmes ∗ Participer aux études et développement & conduite d’études ponctuelles ∗ Gérer des normes, méthodes, outils et référentiels ∗ Mettre en place les normes, méthodes et outils et en vérifier l'application ∗ Certifier des composants et applications développées
Mission freelance
Développeur Fullstack Confirmé (H/F)
MP Advertising
Publiée le
C/C++
Go (langage)
Python
5 mois
500-700 €
Paris, France
En tant que Développeur Fullstack Freelance, vous rejoignez une équipe tech à taille humaine, au cœur des opérations quotidiennes de gestion et d’analyse. Sur une mission d’au moins 5 mois, vous prenez en charge le développement, l’évolution et la fiabilisation d’une plateforme propriétaire utilisée par les équipes front-office et back-office. Votre rôle est central pour garantir la performance, la stabilité et la qualité des outils métier, dans un environnement où la polyvalence technique et la rigueur sont essentielles. Vos principales missions seront de : Maintenir et améliorer la plateforme interne de suivi et d’analyse des fonds. Développer de nouvelles fonctionnalités fullstack en Python, React et Go, dans un environnement orienté performance et résilience. Optimiser les modèles métiers existants (calculs, analytics, courbes, ratios, pricing). Contribuer aux cycles complets de développement avec les équipes front-end et back-end. Améliorer la performance et la structuration de la base de données SQL. Assurer l’intégration, la qualité, les tests et la documentation technique. Collaborer étroitement avec les équipes métier pour traduire les besoins opérationnels en solutions robustes. Proposer des améliorations continues sur l’architecture, la sécurité applicative et l’automatisation.
Mission freelance
Prestation d'assistance technique à la création d'un portail IA
Sapiens Group
Publiée le
Docker
LangChain
Python
1 an
500-550 €
Paris, France
Descriptif du poste La DSI Retraite Complémentaire cherche à structurer ses projets de valorisation des données et d'innover au travers de l'accès à différentes IA. L'équipe Gouvernance et mise en œuvre de l'IA est en charge de la mise en œuvre de solutions d'IA génératives pour l'ensemble des 1000 collaborateurs internes et des prestataires de services de la fédération Agirc-Arrco. Elle a en charge la mise en service et la maintenance d'un Hub et d'un portail IA permettant : De mettre à disposition sur le poste de travail de chaque collaborateur, des assistants d'IA pré-paramétrés par typologies d'usage et par types de droits De permettre à chaque utilisateur du portail IA de fabriquer de nouveaux assistants qui pourront être mis à disposition d'autres collaborateurs (logique Marketplace avec droits d'accès) De permettre l'accès en direct à des IA depuis des logiciels tiers de l'entreprise (CRM, IDE Développement…) ou depuis des applicatifs métiers via appel d'API De mettre à disposition des modules de formation web aux bons usages de l'IA ainsi qu'une FAQ pour accompagner les utilisateurs du portail IA Par ailleurs, l'équipe Gouvernance et mise en œuvre de l'IA est en charge : De gouverner l'utilisation des IA au sein de l'entreprise De définir une stratégie d'utilisation des IA génératives en fonction des risques ou de contraintes portées par les données source D'optimiser les coûts d'utilisation à tout moment dans un contexte Cloud (FINOPS / MLOPS) De mettre en place une chaîne CI/CD des projets IA
Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake
EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Mission freelance
Tech Lead Data GCP
UCASE CONSULTING
Publiée le
DBT
GenAI
Google Cloud Platform (GCP)
1 an
400-600 €
Île-de-France, France
📢 Poste à pourvoir – Tech Lead Data GCP/Python (H/F) Bonjour à tous 👋 Je recherche un(e) Tech Lead Data Senior pour intervenir sur une mission stratégique autour d’une Data Platform moderne orientée Cloud & innovation 🚀 🎯 Contexte Dans le cadre d’un programme de transformation ambitieux, vous intégrerez une Data Factory en charge de : Construire et faire évoluer une plateforme data cloud Industrialiser les workflows data Déployer des solutions innovantes autour de la data et de l’automatisation Diffuser les bonnes pratiques data au sein des équipes 👉 Environnement dynamique avec une forte culture produit et innovation 🚀 Missions principales : Concevoir et développer des data products (jusqu’à 80% de dev) Participer au cadrage technique et aux études d’impact Mettre en place des architectures data robustes et scalables Assurer la qualité du code (review, bonnes pratiques) Accompagner et challenger les Data Engineers Gérer les incidents complexes (niveau 3) Documenter les solutions (architecture, flux, data models) 🛠️ Stack technique : Langages : Python, SQL, Shell Data & Cloud : GCP (BigQuery, Dataflow, Cloud Storage), DBT Streaming / ingestion : Kafka, Kafka Connect, SFTP DevOps / CI-CD : Docker, Kubernetes, Terraform, GitLab BI / Restitution : Looker + Bonus : Automatisation / IA (n8n, outils GenAI) ✨ Les + Projet structurant avec forte visibilité Environnement moderne (Cloud, Data, IA) Forte autonomie et impact technique Équipe orientée innovation ⏱️ Mission 📅 Démarrage : ASAP 📌 Télétravail : 50% 📍 Localisation : Île-de-France
Offre d'emploi
Data Engineer TERADATA ET DATAVIZ
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions sous technologie Teradata, en étroite collaboration avec les autres membres de la squad et de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage, traitement et usages, mise à disposition : une expérience des environnements Unix, une forte expertise SQL et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous interviendrez à la fois sur des activités projet mais aussi sur du RUN (suite des traitements de production, analyse/résolution d’incidents, optimisations, amélioration continue). Ces interventions sont primordiales, chaque membre de la squad participe au traitement des incidents et à l’amélioration continue du périmètre applicatif.
Mission freelance
Expert DevSecOps habilitable (FR)
SKILL EXPERT
Publiée le
Ansible
API
Automatisation
6 mois
550-580 €
Paris, France
Mission : La forge du client propose des services centralisés permettant la gestion du code, l’automatisation CI/CD, la mise à disposition de composants techniques, la gestion du déploiement vers l’hébergement cloud (OpenStack), ainsi que l’accompagnement des projets applicatifs. L’objectif de la mission est d’assurer l’exploitation, le maintien en condition opérationnelle (MCO), l’évolution, la documentation et le support de l’ensemble des services Forge, ainsi que la livraison régulière de composants, modèles et automatisations. Livrables Code (scripts, automatisations, composants techniques). Documentation technique associée. Modèles et templates réutilisables.
Offre premium
Mission freelance
Ingénieur Netdevops
SKILL EXPERT
Publiée le
Agile Scrum
Ansible
API
3 ans
550-600 €
Guyancourt, Île-de-France
Missions Pour l’un de nos clients, vous intervenez sur des missions à forte valeur ajoutée en tant qu’Ingénieur NetDevOps. En étroite collaboration avec vos interlocuteurs, vous accompagnez et conseillez notre client dans le cadre de la gestion du cycle de vie de ses infrastructures actuelles et participez au projet d’évolution et au maintien en condition opérationnelle. Vos tâches seront les suivantes : Automatisation : Contribuer activement aux actions d’automatisation et de fiabilisation des infrastructures. Qualité & Revues : Opérer les revues de code et garantir l'application des bonnes pratiques d'intégration. Expertise technique : Réaliser des présentations techniques et assurer une veille technologique constante. Exploitation & Projets : Intervenir sur l'ensemble des environnements (de l’intégration à la production) en traitant les aspects techniques et fonctionnels. Agilité : Évoluer et collaborer au sein d'un environnement en mode Agile (Scrum). Compétences Techniques : Infrastructure & Cloud : Maîtrise d'Openshift et des concepts d'Infrastructure-as-Code. Réseau & Sécurité : Expertise CNI (Cilium de préférence), Load balancing, DNS, Firewalls et Active Directory. Développement & Automatisation : Solides connaissances en Python, Ansible (AAPv2), Framework Django et modélisation dans Nautobot. DevOps : Maîtrise de Git, des pratiques CI/CD et de la conception d'API. Supervision : Connaissance des solutions type Icinga, Zabbix ou IMC.
Offre d'emploi
Data Engineer TERADATA ET BIGDATA
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ
Mission freelance
Consultant BI / DataViz Senior
CAT-AMANIA
Publiée le
Microsoft Power BI
Modélisation
PostgreSQL
9 mois
360-510 €
Lyon, Auvergne-Rhône-Alpes
Description du poste Dans le cadre de l’application iPilot (BI de la Chaîne Communicante du Marché d’Affaires), vous intervenez en tant que Consultant BI / DataViz afin de consolider, analyser et restituer des données à forte volumétrie. Vous contribuez directement au pilotage de la performance via la conception de dashboards et l’analyse des indicateurs, en lien étroit avec les équipes métiers et techniques. Missions principales Analyser les besoins métiers et traduire les attentes en solutions BI pertinentes Concevoir, développer et optimiser des dashboards (Tableau / Power BI) Modéliser et structurer les données (datawarehouse / datamarts) Consolider et fiabiliser des données issues de multiples sources Analyser les indicateurs de performance et expliquer les variations Identifier des axes d’amélioration et proposer des optimisations data-driven Interagir avec les parties prenantes (métiers / IT) pour affiner les usages Contribuer à l’amélioration continue des outils de pilotage
Offre d'emploi
Consultant DATA (Talend DI / ESB / GCP)
adbi
Publiée le
BigQuery
Enterprise Service Bus (ESB)
Google Cloud Platform (GCP)
45k-57k €
Île-de-France, France
Dans le cadre de ses activités DATA, la DSI du Groupe recherche un profil consultant Data pour l'aider à répondre aux différentes sollicitations de ses métiers. Nous attendons ici une expérience significative en Big Query / Data Studio (ex Looker Studio) / Talend. Objectifs et livrables Au sein des équipes Echanges, Data Architecture et Datavisualisation du pôle Data de la DSI du Groupe, les tâches de la mission sont : - Développer des flux de données Talend (DI/ESB) - Participer à la migration Talend vers la version supérieure - Développer des IHM en Java - Concevoir et mettre en oeuvre le modèle de données décisionnel à partir des données applicatives remontées dans BigQuery - Préparer et transformer les données dans BigQuery - Concevoir et mettre à disposition des Objets Métier - Définir et mettre en oeuvre des règles de Data Quality - Développer des rapports Google Data Studio (ex Looker Studio) - Rédiger des spécifications techniques - Participer à la recette technique et fonctionnelle - Assurer une maintenance et un support des solutions mises en oeuvre
Mission freelance
Responsable environnement QLIK SENSE
CAT-AMANIA
Publiée le
Python
Qlik Sense
1 an
100-480 €
Lille, Hauts-de-France
L’objectif de la mission est d’assurer la production informatique de l’application QLIK SENSE auprès des équipes Finances. Au sein de la BU IT Finance et dans un contexte international, le responsable Application IT Finance QLIK SENCE travaillera en collaboration avec les équipes métiers, les équipes IT (Data, Support, Sécurité, Ops, etc…) ainsi que les éditeurs. En tant que Responsable Application et administrateur·trice technique des solutions, une intégration et un accompagnement seront prévus pour la montée en compétence sur ces outils. Responsabilités QLIK SENSE : Administration de la solution multi-noeuds (montée de version Qlik, Gestion des permissions data et users, dashboard et des environnements/projets dans Qlik, création et maintien de script powershell, batch et python, alerting (monitoring Qlik -> Python) Support plateforme (Analyse et résolution d’incident), Support produit (Expertise développement Qlik (Modélisation et Dashboard), Accompagnement au développement, audit, analyse d’usage, gestion de l’industrialisation des reloads delta/full, Analyse d’écart inexpliqué entre le datamart Qlik et la source). Accompagnement support éditeur Revue de plateforme, chiffrage Création et mise à jour des EPIC/US dans JIRA en mode Kanban Gestion de ticket SMA-X
Mission freelance
Développeur Salesforce expérimenté
CAT-AMANIA
Publiée le
CRM
Java
Méthode Agile
6 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : • Analyser les besoins et faire une proposition de maquettes en restant au plus proche du standard Salesforce. • Evaluer la charge de travail nécessaire pour mettre en œuvre la solution retenue. • Animer ou contribuer aux ateliers de travail avec les directions fonctionnelles ou des key users. • Coordonner ou participer à l’instruction du dossier de lancement de projet (lorsque nécessaire) • Administrer / configurer / développer sous Salesforce. • Suivre les demandes de corrections et d’évolution qui vous seront assignées dans les sprints de développement (méthode agile scrum). • Gérer des livraisons en collaboration avec un autre interne de l’équipe. • Préparer les mises en production et mettre en production en collaboration avec un autre interne de l’équipe. Maintenance corrective / support Niveau 3 • Contribuer au support Niveau 3 (expert) de l’application en production. • Analyser les incidents confiés et les corriger à chaud ou en planification la correction. • Prendre connaissance des nouvelles fonctionnalités livrées dans les nouvelles versions de Salesforce. • Etre force de proposition vis-à-vis des directions fonctionnelles. • Aider à la montée en compétences des équipes internes sur Salesforce (formation, démonstration, communication sur de nouvelles fonctionnalités)
Mission freelance
Tech Lead - Développeur Fullstack Sénior
Tenth Revolution Group
Publiée le
Apache Kafka
FastAPI
Python
12 mois
500-700 €
Nantes, Pays de la Loire
Contexte client Éditeur SaaS B2B à forte croissance intervenant dans la gestion de paiements et le rapprochement bancaire automatisé. Produit utilisé par plusieurs centaines de PME françaises. Contexte exigeant en termes de disponibilité, sécurité et performance. CTO technique impliqué dans les décisions d'architecture. Environnement technique React TypeScript Python FastAPI PostgreSQL Kafka AWS Kubernetes Terraform Profil recherché 7 ans+ d'expérience, dont au moins 2 ans en contexte SaaS B2B ou fintech. Maîtrise confirmée Python et/ou Java avec React en frontend. Expérience sur des architectures cloud (AWS ou GCP) et conteneurisées. Capacité à prendre des décisions techniques structurantes et à accompagner une équipe de 5 à 10 développeurs. Missions Piloter l'architecture technique de la plateforme : choix de stack, scalabilité, patterns de conception Développer les modules critiques : moteur de rapprochement, connecteurs bancaires, dashboards financiers temps réel Définir et faire appliquer les standards qualité (tests, CI/CD, documentation, sécurité) Collaborer étroitement avec le CTO et les Product Managers sur la roadmap technique Contribuer au recrutement et à l'onboarding des nouveaux développeurs
Mission freelance
Expert IA
Cherry Pick
Publiée le
Large Language Model (LLM)
Python
RAG
12 mois
600 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Assistant Technique IA" pour un client dans le secteur du transport Description 🏢 Le Contexte : Démocratiser l'IA à Grande Échelle Vous rejoignez l'équipe Gouvernance et mise en œuvre de l'IA (6 personnes) d'une fédération gérant la retraite de millions de Français. L'enjeu est de structurer et d'innover via un Hub IA et un portail nommé ARIA , mis à disposition de plus de 1000 collaborateurs . Le projet repose sur une logique de Marketplace d'assistants IA : chaque utilisateur peut consommer des outils pré-paramétrés ou fabriquer ses propres assistants pour ses collègues. Actuellement hébergée sur Azure , la plateforme est amenée à basculer en environnement On-premise au cours de votre mission. 🎯 Vos Missions : Évolution, IA et Accompagnement Votre rôle est pivot : vous assurez la robustesse technique du portail tout en étant le traducteur technique des besoins métiers. 1. Développement & Maintenance (Front & Back) : Assurer la maintenance corrective et évolutive du portail basé sur la solution open source RAISE . Améliorer les interfaces ( React ) pour optimiser l'expérience utilisateur. Faire évoluer le Back ( Python/FastAPI ) : gestion des droits, exposition des assistants via API pour les logiciels tiers (CRM, IDE) et suivi de la consommation. 2. Ingénierie IA & RAG : Créer des assistants IA préconfigurés en répondant aux besoins spécifiques des directions métiers. Optimiser l'ingestion de documents et les bases de connaissances (RAG) pour améliorer la qualité des réponses. Réaliser du Prompt Engineering avancé pour accroître la précision des résultats et optimiser les coûts (FinOps). 3. Support & Acculturation : Assurer le support technique de niveau 1 et 2 auprès d'utilisateurs souvent non techniques. Aider à la mise au point des prompts utilisateurs et rédiger la documentation technique et FAQ. Participer à la mise en place de la chaîne CI/CD dédiée aux projets IA.
Offre d'emploi
Senior Data Engineer F/H
Atecna
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)
Lille, Hauts-de-France
Des missions data à fort impact, une communauté en pleine expansion. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Data, animée par Steve et une équipe d'experts passionné·es en pleine structuration. Une équipe qui capitalise sur ses expériences projets et partage activement ses bonnes pratiques et sa veille sur l'écosystème data. Tu es en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Data d'Atecna de l'intérieur. ⚡ Ton impact au quotidien Grâce à toi, nos clients cessent de subir leurs données et commencent à en faire un vrai levier de décision. Tu conçois et industrialises des pipelines data robustes (ETL/ELT, batch, streaming) Tu orchestres les flux avec les bons outils (Airflow, dbt…) dans des environnements cloud (GCP en priorité) Tu modélises et optimises des bases de données pour des usages métiers concrets Tu contribues à la structuration de la communauté Data Atecna : pratiques, standards, montée en compétences Bonus : tu as déjà monté une plateforme data from scratch ou tu as une appétence pour le mentorat ? Ce serait un vrai atout pour nous.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- imposition des dividendes
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Passer de freelance en portage : quelle société choisir
- Etat du marché 2026: rebond ou stagnation ?
- Mission à 600 km de chez moi - Frais de double résidence
- Facturation electronique 2026
708 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois