Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 766 résultats.
Mission freelance
Data Analyst Aix-en-Provence
CAT-AMANIA
Publiée le
Analyse
Data science
Data visualisation
2 ans
360-460 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement d’une équipe spécialisée dans l’analyse de la donnée, nous recherchons un Data Analyst expérimenté pour intervenir sur des problématiques d’exploitation et de valorisation des données. Au sein d’une équipe dédiée à l’analyse et à la fiabilisation des données, vous contribuerez à la mise en place d’analyses avancées et de cas d’usage métiers reposant sur l’exploitation de données multiples . Votre rôle consistera notamment à : Analyser et exploiter des jeux de données issus de différents domaines du système d’information Étudier la cohérence et l’impact des données dans les processus métiers Mettre en œuvre des analyses croisées permettant d’identifier des comportements atypiques ou des signaux faibles Développer des modèles analytiques ou prédictifs permettant d’améliorer la détection d’anomalies Concevoir et maintenir des produits data réutilisables (scripts, modèles, dashboards) Contribuer à la visualisation et à la restitution des analyses auprès des équipes métiers Respecter les normes et bonnes pratiques de développement et d’exploitation des données au sein de l’équipe. Vous interviendrez dans un environnement dynamique où la qualité, la structuration et la valorisation de la donnée sont au cœur des enjeux métier.
Mission freelance
QA Analyst Integration (H/F)
ADSearch
Publiée le
Business Analyst
Cash Management
IA
3 mois
La Défense, Île-de-France
Objectifs et livrables En tant qu’ QA Analyst , vous serez responsable de garantir l’intégration fluide des différents composants et systèmes logiciels. Vous travaillerez en étroite collaboration avec les équipes de développement, les Train Managers, les chefs de projet, les Business Analysts et d’autres parties prenantes afin d’identifier les problèmes d’intégration et d’assurer la qualité et la fiabilité de nos produits logiciels. Responsabilités principalesPlanification des tests Élaborer des plans de test et des stratégies complètes pour les tests d’intégration. Définir les objectifs, le périmètre et les critères de réussite des tests. Identifier et prioriser les cas de test en fonction des risques et des impacts. Exécution des tests Exécuter des tests d’intégration pour valider l’interaction entre différents modules logiciels. Réaliser des tests manuels et automatisés afin d’assurer une couverture complète. Simuler des scénarios réels pour tester le comportement du système dans diverses conditions. Gestion des anomalies Identifier, documenter et suivre les anomalies à l’aide d’outils de gestion des bugs. Collaborer avec les équipes de développement pour reproduire et résoudre les incidents. Vérifier les correctifs et effectuer des tests de régression afin de garantir la résolution des problèmes. Automatisation Mettre en œuvre et maintenir des tests d’intégration automatisés à l’aide des outils internes disponibles. Améliorer en continu la couverture et l’efficacité de l’automatisation. Collaboration Travailler étroitement avec les équipes de développement pour comprendre les points d’intégration et les dépendances. Participer aux revues de conception et de code en apportant une perspective QA. Communiquer efficacement avec les Product Managers, développeurs et autres parties prenantes. Reporting Fournir des rapports de test détaillés et des indicateurs aux parties prenantes. Suivre et communiquer l’avancement, la couverture et les résultats des tests. Signaler en temps opportun les risques et problématiques au management. Amélioration continue Améliorer continuellement les processus et méthodologies de test. Se tenir informé des meilleures pratiques du secteur et des technologies émergentes. Encadrer les ingénieurs QA juniors et partager les connaissances au sein de l’équipe.
Mission freelance
Data Engineer GCP
Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD
18 mois
450 €
Saint-Ouen-sur-Seine, Île-de-France
Bonjour, Dans le cadre d’un projet stratégique pour notre client, nous recherchons un Data Engineer GCP sénior pour rejoindre les équipes DST DataLab . Contexte de la mission: Vous interviendrez au sein d’une équipe data engagée dans la construction et l’optimisation de chaînes de traitement et d’intégration de données sur l’environnement Google Cloud Platform . La mission s’inscrit dans un contexte de structuration et de fiabilisation des flux de données , avec un fort enjeu autour de la qualité, de la performance et de la gouvernance. Informations pratiques: Localisation : Saint-Ouen-sur-Seine Présence sur site : 2 à 3 jours par semaine (obligatoire) Démarrage : 20 avril 2026 Fin de mission : 31 décembre 2027 TJM maximum : 450 € Missions: Concevoir et développer des pipelines de traitement de données sur GCP Mettre en place et maintenir des chaînes d’intégration et de transformation de données Travailler sur l’optimisation et la structuration des bases de données analytiques Participer aux choix d’architecture et aux bonnes pratiques de développement Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, architecture et métiers Stack technique: Compétences requises GCP Dataform (prioritaire) ou DBT BigQuery SQL (maîtrise avancée) Python Apache Airflow CI/CD Google Cloud SQL Google Cloud Run Compétences appréciées: Architecture applicative Expérience autour des APIs, IHM et exposition de données Expérience avec Cloud Run / Cloud SQL ou Kubernetes (JKS) Profil recherché: Data Engineer avec 5 ans d’expérience minimum Solide expérience sur les environnements data cloud Capacité à travailler dans un cadre structuré avec des méthodes de développement rigoureuses Excellentes soft skills : communication, autonomie, esprit d’équipe et sens de l’organisation
Offre d'emploi
Business Analyst Asset Management Senior
cty
Publiée le
Python
SQL
1 an
50k-70k €
500-700 €
Île-de-France, France
Contexte / Objectifs: Mission au sein de l'équipe Gestion, atour d’une application de Gestion de portefeuilles, principalement orientée gestion Fixed Income (monétaire, taux longs), mais également Action, Diversifiée, etc. Les objectifs de la mission porteront principalement sur : - Projets métiers - Projets de transformation technologique - Accompagnement et support utilisateurs Les interlocuteurs projet sont les utilisateurs de l'application, ainsi que les différentes équipes IT de la DSI (Architecture, MO, Trading, Data, etc.). Description : • Recueil des besoins et Rédaction des spécifications fonctionnelles générales • Priorisation des projets ou lots d'un projet • Suivi des développements avec la Maîtrise d'œuvre • Etablissement du cahier de recette et réalisation de la recette • Accompagnement à la mise en production • Formation utilisateurs et Rédaction des procédures et guides utilisateurs • Coordination projet et Reporting
Mission freelance
Développeur Python Confirmé
CAT-AMANIA
Publiée le
Apache Airflow
DBT
FastAPI
6 mois
Nord, France
Pour un client dans le domaine bancaire, Vous participez à l’évolution du moteur python permettant de réaliser l’analyse des données bancaires du client · Développement en Python et SQL avec une plateforme Big Data Snowflake · Utilisation de DBT, Pandas, MLFlow et Airflow. · Chaine de développement complète (bac à sable – recette – PV recette – mises en productions – suivi de mises en productions) Principaux livrables : · Codes Python, SQL dans Gitlab · Evolutions dans nos Code Base · Analyses Ad Hoc · Test Unitaire / Test Fonctionnel
Mission freelance
Data scientist Senior
CAT-AMANIA
Publiée le
CI/CD
Jenkins
Python
6 mois
Île-de-France, France
Dans le cadre d'un programme de transformation de l'efficacité opérationnelle (Programme HERA) pour un acteur majeur du secteur de l'Assurance, nous recherchons un profil technique capable d'assurer la mise en production et l'évolution de solutions d'intelligence artificielle. Le projet porte spécifiquement sur l'amélioration des processus financiers via un algorithme existant dédié à l'identification automatique des bénéficiaires au sein de clauses contractuelles libres. Vos responsabilités : Assurer la mise en production (industrialisation) des évolutions algorithmiques. Garantir la fiabilité du code via la mise en place de tests unitaires rigoureux. Optimiser et maintenir les pipelines de déploiement continu (CI/CD). Collaborer à l'amélioration de l'efficacité opérationnelle des flux financiers. Environnement technique : Langage : Python (Expertise requise) DevOps : CI/CD, Jenkins Qualité : Tests unitaires IA : Deep Learning, idéalement connaissances en Conditional Random Fields (CRF)
Offre d'emploi
Data Engineer AWS expérimenté
UCASE CONSULTING
Publiée le
Apache Spark
AWS Cloud
Python
1 an
50k-60k €
500-600 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe Data de notre client, nous recherchons un(e) Data Engineer AWS expérimenté(e) (5 à 7 ans d’expérience minimum), capable d’intervenir sur des plateformes data à forte volumétrie et à forts enjeux de performance, de sécurité et de coûts. Missions 1️⃣ Maintien en condition opérationnelle de la plateforme Contrôler et garantir la disponibilité des données et des services Assurer le suivi des traitements et la gestion des incidents Répondre aux demandes de données ad hoc et analyser les anomalies Développer des correctifs et des évolutions si nécessaire Contribuer à la qualité des données et à l’industrialisation de la plateforme Communiquer avec les utilisateurs et accompagner les équipes 2️⃣ Design & construction de services et pipelines data Concevoir et mettre en place des flux de données (acquisition, transformation, exposition) Développer des pipelines robustes et performants (batch et temps réel) Réaliser des modélisations de données adaptées aux usages métiers Mettre en place les traitements sur différents formats (CSV, XML, JSON, Parquet) Ordonnancer les traitements et gérer les dépendances (Airflow) Développer et maintenir des flux temps réel via Kafka (MSK) Réaliser les tests unitaires et d’intégration Participer aux revues de code et veiller au respect des standards Gérer les déploiements sur l’ensemble des environnements Enrichir et maintenir la documentation technique Environnement technique AWS : S3, EMR, EKS, EC2, Lambda, Athena Spark (Scala), Python, SQL Kafka Airflow Dataiku GitLab & GitLab CI Terraform
Mission freelance
🚀 Mission Freelance – Développeur Python / AWS / IA (H/F)
Tenth Revolution Group
Publiée le
.NET
Angular
AWS Cloud
12 mois
320-510 €
Le Havre, Normandie
📍 Localisation : Calais 🏢 Présence : 1 jour sur site / semaine — télétravail le reste du temps 📅 Durée : Mission long terme ⚡ Démarrage : Dès que possible 🎯 Contexte Dans le cadre d’un programme stratégique orienté conception de solutions basées sur l’intelligence artificielle , nous recherchons un Développeur Python confirmé à senior pour intégrer une équipe d’architecture technique. L’environnement est structuré, exigeant et à forte contrainte technique : ce rôle s’adresse à un profil capable d’être rapidement autonome , opérationnel dès son arrivée et à l’aise dans des contextes complexes sans encadrement rapproché. 🛠️ Vos missions Concevoir et développer des solutions IA en Python Intégrer vos développements dans un écosystème applicatif existant et complexe Respecter des process techniques stricts et normés Collaborer étroitement avec l’équipe d’architecture Garantir la qualité, la robustesse et la maintenabilité du code 🧠 Environnement technique Langage : Python Cloud : Azure (AKS, Azure SQL) CI/CD : GitHub Monitoring : Grafana Backend historique : .NET Frontend : Migration Angular → React
Offre d'emploi
Développeur Python Backend et Terraform DEVOPS
VISIAN
Publiée le
pytest
Python
1 an
40k-45k €
400-600 €
Île-de-France, France
Descriptif du poste Une filiale d'un grand groupe bancaire, au cœur de la transformation technologique du Groupe. Notre mission est de concevoir, développer et opérer des plateformes d'infrastructure modernes (PaaS, IaaS, CaaS) pour l'ensemble de nos métiers. Nous cherchons un profil DevOps pour renforcer la squad Serveur, en tant que développeur Python backend et Terraform. Le rôle que nous recherchons demande une combinaison de plusieurs qualités : excellence technique, posture d'accompagnement, et plaisir à coder pour les autres. Compétences techniques Compétences indispensables C'est le socle non négociable. Nous attendons une maîtrise solide ou un niveau expert sur ces sujets. Expertise approfondie et pratique de Python Excellente maîtrise de Pytest et de son écosystème Solide expérience en automatisation de tests d'API REST Maîtrise de Git et des pipelines CI/CD, notamment GitLab CI Maîtrise des commandes de base Linux et du scripting shell Maîtrise des pratiques BDD (Gherkin) Compréhension des principes d'ingénierie logicielle (DRY, Abstraction, Idempotence)
Mission freelance
POT8891 - Un Architecte Python sur Orléans
Almatek
Publiée le
Python
6 mois
260-440 €
Orléans, Centre-Val de Loire
Almatek recherche pour l'un des ses clients, Un Architecte Python sur Orléans L’Architecte Python sera responsable de?: Définition et cadrage technique Choisir les bons outils, patterns et mécanismes d’exposition (API, services, microservices). Produire un diagramme de choix architecturaux permettant de cadrer les usages Python et guider les équipes techniques. Définir les standards de développement Python?: qualité, performance, résilience, observabilité, logging, sécurité. Standardisation & industrialisation Standardiser les pratiques de développement Python pour atteindre le niveau attendu sur les autres socles techniques (Java notamment). Proposer les fonctionnalités nécessaires à une mise en production fiable des développements Python (pipelines, packaging, tests, monitoring). Accompagnement & communication Embarquer et accompagner l’ensemble des équipes dans l’adoption des nouveaux standards et outils. Organiser et animer des ateliers d’architecture, des séances de partage de bonnes pratiques ou des revues de conception. Enjeux de la mission: L’Architecte Python devra contribuer directement aux enjeux stratégiques suivants?: Accompagner le groupe dans sa transformation technologique afin d’intégrer Python comme technologie de premier plan. Poser les bases pour les futurs développements IA (usage de LLM, data pipelines, modèles, microservices data/IA). Apporter de la souplesse dans les choix de socles techniques, pour permettre des architectures plus adaptatives et modulaires. Activités principales: Réaliser un audit des pratiques Python existantes (code, architecture, CI/CD, sécurité). Définir et documenter les standards d’architecture Python (guidelines, modèles, patterns). Rédiger et maintenir la documentation technique et les référentiels d’architecture. Participer aux revues techniques?: design reviews, code reviews, validation d’architecture. Contribuer à la mise en place des frameworks et templates facilitant l’industrialisation (boilerplates, CI/CD, observabilité). Accompagner les équipes projet dans leurs conceptions et arbitrer les décisions techniques majeures.
Offre d'emploi
Géomaticien / Expert FTTH
AGH CONSULTING
Publiée le
ArcGIS
Python
6 mois
40k-45k €
320-500 €
Ans, Liège, Belgique
Intitulé du poste : Géomaticien / Expert SIG 1. Mission & tâches à réaliserContexte de la mission Dans le cadre de notre programme de déploiement Fiber to the Home (FTTH) , le consultant interviendra en soutien aux prises de décisions stratégiques et opérationnelles grâce à des analyses géospatiales avancées et à l’exploitation intelligente des données. Dans un environnement télécom concurrentiel et fortement orienté données, le rôle consiste à structurer et analyser différents jeux de données (données de déploiement réseau, couverture concurrentielle, données démographiques et cadastrales open data, indicateurs commerciaux) afin de fournir des données exploitables pour la conception réseau ainsi que des analyses claires et actionnables. Le consultant sera responsable du traitement, de l’import et de l’export des informations géospatiales pertinentes vers et depuis : l’outil interne de gestion du réseau, l’outil de conception réseau, d’autres outils SIG et bases de données, les partenaires externes de conception et de construction. Il sera également responsable de la vérification et du contrôle qualité des données SIG échangées aux différentes étapes du processus de déploiement FTTP. Principales tâches Réaliser des analyses spatiales variées telles que : Analyse de la couverture FTTH concurrente à partir de données réglementaires et open data Clustering spatial et priorisation des zones de déploiement Classification des ménages (éligibilité, densité, type de bâtiment, etc.) Analyses croisées des données réseau, démographiques et commerciales Collecter les données réseau, infrastructures et autres données pertinentes, puis les traiter pour alimenter l’outil de conception. Intégrer dans l’outil SIG les relevés de terrain et études, dans les délais impartis et conformément aux règles techniques, incluant : Mises à jour des bases de données et applications Contrôles de cohérence des données Vérification de l’éligibilité commerciale Concevoir des tableaux de bord interactifs et automatiser les processus de reporting récurrents (KPI de déploiement hebdomadaires / mensuels). Automatiser les processus d’import/export entre différents outils en garantissant la conformité des formats et la cohérence des données. Réaliser des analyses spatiales et produire les rapports associés. Développer et fournir des rapports automatisés à partir des bases de données, établir des diagnostics précis et proposer des actions correctives. Représenter l’activité Géomatique en interne et en externe dans le cadre de la Geodata Factory et soutenir le manager et les équipes grâce à son expertise technique.
Mission freelance
Développeur Python / Azure DevOps (H/F)
Freelance.com
Publiée le
Azure DevOps
Python
3 ans
400-590 €
Paris, France
2 jours de gratuité pour les deux premiers jours de la mission qui vont être deux journées d'intégration . Dans le cadre d’un programme stratégique de modernisation et d’industrialisation de plateformes cloud , nous recherchons un DevOps Azure avec une forte compétence Python pour renforcer une équipe technique existante. La mission s’inscrit dans un environnement cloud Azure mature et critique , avec des enjeux forts de performance, fiabilité, sécurité et passage à l’échelle . Les équipes travaillent sur des traitements batch à grande volumétrie , nécessitant une orchestration fine des workloads, une gestion avancée des pipelines CI/CD et une forte culture Cloud Ops . Le poste s’intègre au sein d’ équipes de développement agiles , en interaction constante avec des profils backend, cloud et métiers. L’environnement est structuré, industrialisé et orienté production , avec des exigences élevées en matière de qualité logicielle, bonnes pratiques DevOps et Software Craftsmanship . La mission requiert une expertise opérationnelle sur Azure , notamment sur Azure DevOps et Azure Batch , ainsi qu’une capacité à développer et maintenir des services et scripts Python utilisés en production. Une attention particulière est portée à l’ observabilité, à la résilience des systèmes et à la sécurité des workloads cloud .
Mission freelance
Consultant DevOps & CRM Unica v12
Freelance.com
Publiée le
CI/CD
Cycle en V
Docker
2 ans
400-550 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre de la modernisation d’un CRM stratégique, le consultant interviendra en mode mixte run/projet pour assurer la continuité opérationnelle du CRM et contribuer activement à son évolution. La mission comprend : le maintien en condition opérationnelle, le support aux équipes métier et MOA, la participation à l’intégration et aux tests des nouvelles fonctionnalités du CRM. Compétences attendues Techniques (Hard Skills) OpenShift / DCS – maîtrise CI/CD, GitLab, Docker, Helm – maîtrise Progiciel Unica v12 (Campaign, Interact, Deliver, Journey) – maîtrise Oracle v19 – maîtrise Intégration de flux BATCH, APIs, routage IP – maîtrise Korn Shell et Python – maîtrise Outils ADD, LDAP, JIRA – maîtrise Cycle en V « agilisé » – maîtrise Notions : DataStage, STCA/ANCA, WebServices, CRM et campagnes promotionnelles
Offre d'emploi
Développeur .NET
VISIAN
Publiée le
.NET
Python
1 an
40k-45k €
120-350 €
Paris, France
Descriptif du poste Standardisation mise en œuvre sur le périmètre. Garantir le bon fonctionnement continu de la production et participer en priorité à la résolution des incidents et des problèmes de production. Garantir les builds et la mise en œuvre des actions nécessaires pour revenir à un état stable. Analyse des erreurs et participation à l'amélioration continue (aspects techniques, organisation de l'équipe et processus). Participation aux mises en production, c'est-à-dire contribution aux livrables projets (sécurité, architecture, estimations, etc.). Participation aux estimations. Maintenance des outils développés en interne (ex. : mise à jour des bibliothèques). Garantir et challenger les choix techniques pour qu'ils soient alignés avec : les besoins du client, les normes et standards des équipes d'architecture, l'innovation et les principes de la transformation digitale de l'organisation, la sécurité du système d'information. Remonter les alertes de l'équipe / faire le relais entre l'équipe de développement et le responsable de développement.
Offre d'emploi
Functional Support Analyst Junior (Finance de Marché)
Gentis Recruitment SAS
Publiée le
Administration Windows
Powershell
Python
12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation du système d’information trading, un acteur majeur du secteur de l’énergie déploie un progiciel financier international en remplacement d’un système legacy historique. Le consultant interviendra au sein de l’équipe Support Risk & PnL , en charge du maintien en conditions opérationnelles des outils utilisés quotidiennement par le Front Office (écrans de grecques, PnL, PnL Explain, reporting risques). Missions principales Le consultant aura un rôle transverse entre les utilisateurs métiers (Front Office, Risk) et les équipes techniques : Support applicatif niveau 1/2 sur les outils Risk & PnL Analyse technico-fonctionnelle des incidents Rédaction de rapports d’incidents et suivi des correctifs Interface avec les équipes de développement Formation des utilisateurs Recueil et suivi des demandes d’évolution Monitoring applicatif et sanity checks Contrôle quotidien des reports Risk & PnL Mise à jour de la documentation et base de connaissance Reporting formel des incidents / changements / problèmes Livrables attendus Reporting d’activité Mise à jour de la base de connaissance Documentation utilisateurs Suivi formalisé des incidents et évolutions Modalités Temps plein Astreintes possibles Mission basée à Paris Prolongation possible dans la limite de 3 ans
Offre d'emploi
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse
12 mois
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
766 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois