Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 705 résultats.
Offre d'emploi
Data Scientist - Domaine Paiements & Big Data (GCP, Python, ML/NLP)
CAT-AMANIA
Publiée le
Git
Google Cloud Platform (GCP)
Python
6 mois
40k-71k €
500-610 €
Île-de-France, France
Au sein d'un grand groupe bancaire, intégré au pôle Paiement, vous agissez en tant que référent technique et fonctionnel sur des projets décisionnels et Big Data. Vous faites le lien entre les besoins métiers et les solutions technologiques innovantes basées sur l'Intelligence Artificielle et le Cloud. Vos missions principales : Gestion de projet & Analyse : Collecter les besoins auprès des métiers, animer des groupes de travail et rédiger les spécifications fonctionnelles et techniques. Data Engineering & Architecture : Modéliser les données et développer des reportings. Vous assurez l'exploration des données et contribuez à l'architecture sur le Cloud. Data Science & Machine Learning : Concevoir et implémenter des algorithmes de Machine Learning (spécifiquement en classification et NLP - Traitement du Langage Naturel). Delivery & Qualité : Assurer la recette, la mise en production (CI/CD) et garantir la qualité des livrables. Accompagnement : Former les utilisateurs et vulgariser la donnée via une communication visuelle efficace. Environnement Technique & Méthodologique : Cloud & Big Data : Expertise Google Cloud Platform indispensable (BigQuery, Airflow, Vertex AI/Notebook Jupyter). Langages & Libs : SQL, Python (Pandas, Scikit-learn, TensorFlow). DevOps/Delivery : Git, Jenkins, Cloud Build. Méthodologie : Agilité (Scrum, Kanban).
Offre d'emploi
Data engineer Python
UCASE CONSULTING
Publiée le
Azure
CI/CD
Flask
1 an
40k-45k €
400-550 €
Île-de-France, France
Bonjour à tous, Notre client recherche un Data Engineer Python afin de renforcer ses équipes data intervenant sur plusieurs projets de traitement et d’industrialisation de données dans un environnement cloud . L’objectif de la mission est de participer au développement et à l’évolution de solutions data utilisées par différentes applications métiers. Vous interviendrez au sein d’une équipe de Data Engineers travaillant en méthodologie agile , sur des projets mêlant développement de pipelines de données, services data et maintenance évolutive dans un environnement Python / Cloud . Vos missions Concevoir et développer des pipelines de traitement de données en Python Participer au développement de services ou APIs data Implémenter les User Stories et contribuer aux sprints agiles Réaliser les tests techniques et produire la documentation associée Participer à l’ industrialisation des développements (CI/CD, monitoring) Contribuer aux évolutions et à la maintenance des applications data existantes
Mission freelance
Geo Data Engineer
Celexio
Publiée le
Apache Airflow
AWS Cloud
Bash
3 mois
400-550 €
Paris, France
Vous êtes un "bricoleur" du code, passionné par l'infrastructure et capable de naviguer dans des environnements techniques denses ? Nous recherchons un Geo Data Engineer (H/F) pour rejoindre un acteur majeur de la Tech. Ici, on ne cherche pas forcément un titre, mais un tempérament : quelqu'un qui n'a pas peur de mettre le nez dans le code, de comprendre l'infra et de proposer des solutions concrètes. 📋 Détails de la mission Secteur d’activité : Plateformes Digitales / Data Localisation : Paris (Télétravail flexible) Durée : Mission longue (Freelance, Indépendant ou Portage) Démarrage : ASAP Votre challenge Au sein d'un environnement riche et techniquement challengeant, vous serez le garant de la qualité et de la fluidité des flux de données géographiques. Votre autonomie et votre capacité à communiquer seront vos meilleurs atouts pour vous onboarder efficacement. Vos missions principales : Développer et maintenir des pipelines de données robustes. Intervenir sur l'infrastructure et le code pour optimiser les performances. Collaborer avec les équipes transverses pour intégrer des solutions Data innovantes. Apporter votre vision de "touche-à-tout" pour résoudre des problématiques complexes.
Mission freelance
Ingénieur de production Azure API Gateway
emagine Consulting SARL
Publiée le
Azure
Gateway
3 mois
Île-de-France, France
Description • Création et mise en œuvre de la solution APIM (Azure) • Accompagnement et mises en œuvre des solutions MQ Séries, Confluent Cloud Kafka • Création et mise en œuvre d’une plateforme Talend (Cloud) Livrables • Plateforme APIM (Azure) • plateforme Talend (Cloud) • Documentations d'exploitation Compétences HARDSKILLS o Expertise Azure API Gateway- plateforme & développement o Confirmé en environnements Cloud o Confirmé en Architecture Middleware o Connaissance d’Azure Api Management o Connaissance de Talend Data Fabri c o Connaissances en outillage DEVOPS o Connaissances en Sécurité Compétences clés Obligatoire Expertise Azure API Gateway- plateforme & développement Important o Confirmé en environnements Cloud Confirmé MQ Séries
Mission freelance
Data Engineer
Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API
1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Mission freelance
Ingénieur Cloud AWS N3
AIS
Publiée le
AWS Cloud
6 mois
400-550 €
Courbevoie, Île-de-France
La DSI Groupe est organisée autour de Shared Line of Services afin de fournir des services globaux à l’ensemble des entités du groupe. Le périmètre Infrastructure délivre : des services Cloud (AWS & Azure), des services réseaux centralisés : Backbone, VPN site-à-site, filtrage Internet, VPN utilisateurs, IPAM, SD-WAN. L’objectif est de garantir un haut niveau de qualité, de sécurité et de conformité sur des environnements AWS complexes, dans un contexte international. Synthèse du rôle Rattaché(e) au Team Lead Cloud AWS Intervention Niveau 3 sur les activités RUN & projets , sous la responsabilité du Cloud Service Delivery Manager Basé(e) en France , en collaboration étroite avec les équipes BAU en Inde Rôle clé dans : la gestion des incidents et changements, la gouvernance Cloud, l’automatisation, la transition des services vers les équipes internes Environnement global avec rotations horaires
Offre d'emploi
Chef/Directeur de Projet Data (Sénior) - Lyon
KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Business Analyst
50k-65k €
Lyon, Auvergne-Rhône-Alpes
Rôle transversal positionné entre les équipes métier, les équipes Data Engineering, les Data Analysts/Modelers et les sponsors projets, vous intervenez sur : Des programmes Data d’envergure (Data Lakehouse, modernisation BI, Data Governance, MDM, Analytics avancés). Des environnements Cloud (Azure, GCP, AWS) et des architectures modernes (Data Mesh, Datavault). Des enjeux de pilotage projet, de cadrage fonctionnel et d’accompagnement à la transformation Data. En tant que Senior (+8 ans), nous attendons de vous : Une grande autonomie et capacité à sécuriser un projet ou un périmètre. Une forte expérience en gestion de projets Data complexes. Une capacité à accompagner les équipes, structurer les pratiques et diffuser la culture Data. Une maîtrise avancée des méthodologies de modélisation (3NF, Étoile/Flocon, Data Mesh…), des pipelines ETL/ELT, et des outils BI.
Offre d'emploi
Data Ingénieur (32)
VISIAN
Publiée le
BigQuery
Google Cloud Platform (GCP)
1 an
Île-de-France, France
Data IngénieurPrestations attenduesPrestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Offre d'emploi
Expert DBA SQL Server / Cloud Azure
Gentis Recruitment SAS
Publiée le
Azure
Azure DevOps
Database
12 mois
Paris, France
Contexte de la mission Au sein de la DSI du client, l’équipe DBA intervient sur l’architecture, le build et le maintien en condition opérationnelle des bases de données utilisées par différentes applications critiques. Dans un contexte cloud first , l’environnement évolue progressivement vers des solutions Azure et AWS , avec une forte composante SQL Server sur Azure . Le consultant interviendra au sein d’une équipe DBA et collaborera étroitement avec les équipes infrastructure, développement et opérations afin d’accompagner les projets techniques et garantir la disponibilité des environnements de bases de données. Missions principales Le consultant interviendra notamment sur les activités suivantes : • Assurer l’architecture, le déploiement et l’administration des bases de données SQL Server • Maintenir et optimiser les environnements de bases de données en production • Participer à la mise en place et à l’amélioration des solutions d’infrastructure database • Accompagner les équipes de développement dans l’optimisation et l’évolution des bases de données • Mettre en œuvre des architectures haute disponibilité (clusters SQL Server, failover, Always On) • Automatiser les déploiements et l’administration via scripting et outils DevOps • Participer à l’amélioration continue des processus d’infrastructure et d’exploitation • Rédiger la documentation technique (architecture, HLD / LLD, procédures) • Contribuer aux projets d’évolution vers les services PaaS database dans le cloud Environnement technique Bases de données SQL Server (principal) PostgreSQL MongoDB Oracle Cloud Azure AWS Infrastructure Windows Server SQL Server clusters / Always On Environnement hybride On-premise / Cloud Automatisation et DevOps Azure DevOps CI/CD Bicep Scripting PowerShell Python Bash Monitoring Zabbix Prometheus Grafana
Mission freelance
LEAD MACHINE LEARNING MLOPS
Atlas Connect
Publiée le
Agent IA
API
API REST
6 mois
600-680 €
Paris, France
Mission Garantir l’excellence technologique du pôle IA en définissant les standards d’architecture et de développement, en sécurisant la mise en production de solutions d’intelligence artificielle complexes et en accompagnant la montée en compétence des équipes techniques. Le Tech Lead ML joue un rôle clé dans la conception, la robustesse et la scalabilité des produits IA tout en contribuant aux décisions stratégiques liées à la roadmap technologique. Responsabilités principalesArchitecture & Engineering IA Définir et maintenir les standards d’architecture ML/IA dans des environnements multi-cloud . Concevoir et valider les pipelines ML / IA end-to-end (data → training → évaluation → déploiement → monitoring). Mettre en place les bonnes pratiques de MLOps et industrialisation des modèles . Choix technologiques Superviser les choix d’outils et frameworks : frameworks ML solutions cloud (Google Cloud, Microsoft Azure) outils MLOps Garantir la cohérence technologique de l’écosystème IA. Qualité technique & gouvernance Auditer et challenger la qualité technique des produits IA : performance robustesse sécurité coûts (FinOps) maintenabilité Mettre en place des standards de gouvernance des modèles et des données . Leadership technique Jouer un rôle d’ expert et de mentor auprès des équipes Data Science et Data Engineering. Accompagner la montée en compétence technique des équipes. Définir et diffuser les bonnes pratiques de développement . Contribution stratégique Participer aux phases de cadrage et de conception des produits IA . Contribuer à la définition de la roadmap produit IA . Collaborer étroitement avec : le Product Owner IA les Data Scientists les Data Engineers les équipes software. Innovation & veille Assurer une veille technologique active sur les innovations IA : IA générative MLOps architectures data outils et frameworks émergents.
Mission freelance
AWS Senior Data Engineer / Data Architect (Event-Driven & Streaming)
Tenth Revolution Group
Publiée le
Amazon Redshift
AWS Cloud
AWS Glue
6 mois
400-650 €
Auvergne-Rhône-Alpes, France
Contexte Dans le cadre de la modernisation d’une plateforme data, vous concevez et mettez en œuvre des architectures cloud-native orientées événements sur AWS. L’objectif est de remplacer les traitements batch par des pipelines distribués, temps réel ou quasi temps réel, robustes et scalables. Missions principales Vous définissez des architectures data serverless event-driven, concevez des pipelines d’ingestion et de transformation distribués et mettez en place des systèmes découplés basés sur la messagerie en garantissant la scalabilité, la résilience et l’optimisation des coûts. Vous transformez les flux ETL batch en pipelines cloud-native, implémentez les patterns asynchrones (retry, DLQ, idempotence, gestion des timeouts) et industrialisez les déploiements via l’Infrastructure as Code et la CI/CD. Vous déployez le monitoring, le logging et le tracing afin de suivre la performance, la latence et la qualité des flux. Compétences clés Solide expérience des architectures event-driven et des systèmes distribués, de l’event sourcing et du message brokering, de la gestion du backpressure et de la latence ainsi que de la transformation distribuée et du traitement de gros volumes. Ce poste n’est pas orienté BI, reporting ou data engineering batch classique Positionnement Rôle transverse avec une forte interaction avec les équipes data, cloud, DevOps et applicatives, impliquant une responsabilité importante sur les choix techniques et les bonnes pratiques. Synthèse Profil d’architecte data AWS spécialisé en serverless et en architectures orientées événements, capable de concevoir des pipelines distribués scalables et résilients.
Mission freelance
POT8909 - Un Développeur fullstack Java AWS/GCP sur Lyon
Almatek
Publiée le
Google Cloud Platform (GCP)
6 mois
260-400 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses client, Un Développeur fullstack Java AWS/GCP sur Lyon Mission Conception de l'architecture de l’application avec les Product Owners et Business Analysts, Réalisation des développements (java ,Angular ,Python) en assurant la qualité du delivery Le suivi des phases d’intégration et de déploiement, SI et/ou environnements cloud AWS/GCP, dans une chaîne CI/CD (GitlabCI ,DevOps ,Cloud) Compétences Attendues : Indispensable : vous avez à minima 3 ans d'expérience sur les technologies Java et / ou Angular ; vous avez déjà évolué sur des environnements Cloud AWS et ou GCP avec plus particulièrement l'utilisation des services managés. Souhaité : vous maîtrisez Python ou Terraform Planning 2 à 3 jours / semaine sur site à Lyon.
Mission freelance
Développeur Back-End Java
Sapiens Group
Publiée le
AWS Cloud
Docker
GitLab CI
12 mois
470-500 €
Hauts-de-France, France
Contexte : Garantir l’excellence technique, structurer les pratiques de développement et assurer une livraison rapide, fiable et pérenne des solutions. 🔹 Leadership technique & architecture Définir et porter la vision technique Unifier les pratiques et arbitrer les décisions structurantes Participer aux études de faisabilité, cadrages et estimations Être le référent technique auprès du PO, DevOps et équipes Infra 🔹 Qualité & amélioration continue Garantir la qualité de code (Quality Gate, couverture de tests, TDD/BDD) Animer les Code Reviews et suivre les indicateurs clés Piloter et prioriser la dette technique Mettre en place et suivre les métriques (couverture, anomalies, workflow, revues) Organiser des actions d’amélioration continue 🔹 Delivery & production Orienter vers des solutions simples, robustes et maintenables (KISS) Favoriser la collaboration DevOps et la culture CI/CD Suivre la performance de delivery (fréquence, taille des déploiements) Assurer la qualité en production et l’analyse des incidents 🔹 Contribution à l’équipe Participer activement aux cérémonies agiles Contribuer aux estimations et à la priorisation Faciliter le partage de connaissances et l’onboarding Créer de la cohésion et accompagner la montée en compétences
Mission freelance
Ingénieur sécurité
Signe +
Publiée le
AWS Cloud
CI/CD
6 mois
350-400 €
Paris, France
Bonjour, Nous recherchons pour l'un de nos clients un Ingénieur sécurité. Secteur d'activité client final : média et audiovisuel Description détaillée : Rejoindre la Direction des Technologies Digitales du client, c'est intégrer une équipe technique au cœur des sujets mêlant la puissance et la visibilité d'un média, au monde des nouvelles technologies. Vous travaillerez sur des produits impactant directement l'audience et sur des sujets liés à la vidéo online ou encore à la haute disponibilité. Votre rôle au sein de l’équipe Vos missions ? - RUN Sécurité : Suivi et gestion de la sécurité́ du SI d’eTF1 au quotidien (suivi des alarmes et des métriques sécurités existantes, répondre aux incidents de sécurité́, etc.), - Sécurité Vidéo : Suivi et gestion de projets de mise en place d’outils de sécurité de diffusion vidéo (DRM, URL signing, green header…) - Suivi de projets sécurité : Suivi et gestion de projets de mise en place d’outils de sécurité́ (SIEM, SSO, CNAPP, Workload Protection, etc.), - Audits : Auditer régulièrement les produits eTF1 afin d’alimenter un plan de remédiation global (audit technique à effectuer ou à piloter en cas de sous-traitance), - Amélioration continue : Améliorer la sécurité́ du SI de l’entreprise en se basant sur le plan de remédiation défini (refacto on-premise, amélioration du filtrage réseau, compliance AWS, sécurisation de la chaîne CI/CD, sécurisation de la diffusion vidéo, etc.). Qui êtes-vous ? - Autonomie complète sur l’organisation de la sécurité (définition du plan de remédiation, accompagnement des équipes à la correction ou corriger soit même), - Une expérience significative dans la sécurisation et la mise en place de solutions AWS et sur la technologie Kubernetes (k8s) - Capacité de gérer des projets de mises en place d’outils de sécurité de A à Z (état de l’art, choix de solutions, PoC, configuration, intégration, mise en production), - Utilisation d’outils d’IAC (terraform, terragrunt, etc..) - Connaissance des outils de gestion de développement et de projets Atlassian (Jira, Confluence, Statuspage) - Expérience dans les tests d’intrusion et dans la cybersécurité technique - Expérience avec le cloud AWS et ces outils de sécurité - Expérience et connaissance des architectures de diffusion vidéo et streaming (formats vidéo hls/dash, CDN…)
Offre premium
Mission freelance
Développeur Elasticsearch expert / Node (exp 4+ ans) H/F
WINSIDE Technology
Publiée le
E-commerce
3 ans
520-720 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Développeur.euse Elasticsearch expert.e / NodeJs pour travailler au sein d'une entreprise internationale ! 🚀 Ce poste est fait pour toi si : Tu as 5 ans d'expérience professionnelle à minima dans le développement . Tu as 3 ans d'expérience professionnelle à minima en NodeJs . Tu as des connaissances avancées en Elasticsearch. Tu as des connaissances solides en GCP/Big Query . Les bénéfices du poste : Travailler dans un environnement complexe (fort trafic, usage avancé d'Elasticsearch, orienté performance). Mission longue Environnement technique moderne : Elastic Cloud, NodeJs, NestJs, Typescript, GCP, Big Query, etc. Démarrage : rapide. Télétravail : 4 jours par semaine. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Mission freelance
Développeur confirmé Python / Fullstack orienté AWS — Startup Biotech | Lyon
Tenth Revolution Group
Publiée le
AWS Cloud
Microservices
Python
6 mois
270-400 €
Lyon, Auvergne-Rhône-Alpes
🏢 Contexte Rejoignez une startup biotech innovante basée à Lyon, en pleine croissance. Vous interviendrez sur le développement et l'évolution d'une architecture microservices à fort enjeu technologique. 🎯 Missions Développement et maintenance d'applications Python dans une architecture microservices Conception et intégration de services AWS (SQS, SNS) Participation à l'amélioration continue de l'infrastructure cloud Collaboration étroite avec les équipes techniques et produit 🧠 Profil recherché Solide expérience en développement Python (80% du poste) Bonne maîtrise d'AWS, notamment SQS et SNS (20% du poste) Expérience en architecture microservices Autonome, rigoureux et à l'aise dans un environnement startup
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1705 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois