Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 592 résultats.
Freelance

Mission freelance
Chef de projet MOA expérience KYC bancaire

Publiée le
MOA

12 mois
400-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un Chef de projet MOA expérience KYC bancaire KYC "Know your customer" Prestation sur site client à Bordeaux avec 3 jours de télétravail Pour le besoin de CP, je cherche un candidat capable de : Pilote projet Conception fonctionnel Recette Piloter des projets (budget, planning, risques) Animer, fédérer autour de lui pour amener les évolutions Production Spécifications Fonctionnelles Générales et Détaillées (conception technico-fonctionnelle) Cahier de recette Process pilotage
Freelance
CDI

Offre d'emploi
Product Owner Data

Publiée le
Azure Data Factory
Microsoft Power BI
Méthode Agile

12 mois
43k-56k €
290-390 €
Lille, Hauts-de-France
CITECH recrute ! 👌 ✨ Si vous souhaitez mettre vos compétences au service d’un projet Data innovant et à fort impact, nous avons LE poste qu’il vous faut ! Nous recherchons un(e) Product Owner Data (H/F) 🚀 ☘️ Votre mission est pour un acteur reconnu du secteur public, dans un environnement où la donnée est au cœur des décisions stratégiques. Vous intégrerez une équipe Data Factory dynamique, dédiée à la modernisation et à l’exploitation intelligente des données, dans un cadre agile et collaboratif. Rattaché(e) à la DSI et intégré(e) à l’équipe Data Factory, vous interviendrez en tant que Product Owner Data pour piloter et valoriser les produits Data de l’entreprise. 🧩 Vos principales missions : Cadrage et expression des besoins : Recueillir, formaliser et prioriser les besoins métiers auprès des différentes directions. Identifier les cas d’usage Data à forte valeur ajoutée. Gestion de produit et pilotage : Définir la roadmap produit et assurer le suivi des livrables. Prioriser les sujets selon la valeur métier et la stratégie Data. Participer activement aux rituels agiles (Daily, Sprint Review, Planning, Rétrospective). Data & Reporting : Accompagner la finalisation de la migration des rapports depuis l’ancien outil (Microsoft SSRS). Piloter la création de nouveaux rapports liés aux chantiers stratégiques (apprentissage, lutte contre la fraude, automatisation des processus…). Contribuer à l’intégration progressive de l’Intelligence Artificielle dans les rapports pour améliorer l’analyse sémantique des données. Recette et accompagnement : Réaliser la recette fonctionnelle des développements. Préparer et déployer les solutions auprès des utilisateurs. Assurer la communication et le reporting auprès du management IT et des métiers.
Freelance
CDI
CDD

Offre d'emploi
Data Analyst confirmé

Publiée le
Databricks
Microsoft Power BI
Python

12 mois
40k-68k €
360-480 €
Bondoufle, Île-de-France
Télétravail partiel
Bonjour, Nous recherchons pour notre client basé en région parisienne un Data Analyst – confirmé (4 - 10 ans d’expérience) Objectif : Accompagner l’entité Juridique du Groupe sur les sujets énergies Les livrables sont Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés Compétences techniques PYTHON - Confirmé - Impératif POWERBI - Confirmé - Important DATABRICKS - Confirmé - Important SQL - Confirmé – Important Connaissances linguistiques Français Courant (Impératif) Anglais Notions (Secondaire) Définition du profil CONCEPTION ET CADRAGE Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes Données complémentaires Date de démarrage 08/12/2025 Lieu de réalisation Bondoufle Déplacement à prévoir non Le projet nécessite des astreintes non Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Freelance

Mission freelance
Consultant SIRH Data

Publiée le
SIRH

6 mois
Hauts-de-Seine, France
Dans le cadre d'une stratégie Data lancée il y a 3 ans, reposant sur l'écosystème Microsoft (Data Lake, Microsoft Fabric, Power BI), des cockpits de pilotage ont été déployés pour de nombreux domaines fonctionnels (commerce, marketing, centre d'appels, etc.). Le domaine Ressources Humaines reste cependant en retrait : Les données RH sont encore silotées. Leur exploitation repose sur une seule ressource experte, limitant la capacité de partage, de croisement et d'analyse. Les enjeux sont majeurs : la masse salariale représente le principal poste de dépense de l'entreprise. Pour répondre à ces défis, nous recherchons un Consultant SIRH Data chargé de formaliser les besoins fonctionnels, structurer les règles de gestion et préparer l'industrialisation de l'exploitation des données RH au sein de l'écosystème Data. Missions principales Recueil & cadrage des besoins : Identifier et formaliser les besoins métiers du contrôle de gestion concernant les Data RH. Définir les indicateurs clés RH (effectifs, absentéisme, turnover, masse salariale, etc.). Prioriser les besoins en fonction des enjeux stratégiques. Spécifications fonctionnelles : Rédiger les spécifications fonctionnelles d'extraction et de transformation des données RH (Pléiades, Sopra, Horoquartz). Documenter les règles de gestion existantes et à mettre en place. Formaliser un dictionnaire de données RH partagé et pérenne. Collaboration avec les équipes Data : Travailler en étroite relation avec les équipes Data/BI en charge de la réalisation technique (Microsoft Fabric, Power BI). Assurer la cohérence et la qualité des données intégrées au Data Lake. Participer à la recette fonctionnelle des flux et des tableaux de bord RH. Contribution à la gouvernance Data RH : Structurer les processus de mise à jour et de documentation. Contribuer à la démocratisation et à l'accès sécurisé des données RH.
Freelance

Mission freelance
FREELANCE – Data Engineer Airflow (H/F)

Publiée le
Apache Airflow
AWS Cloud
DBT

6 mois
480-520 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail 100%
Notre client basé à Marseille (13) est à la recherche d’un Data Engineer Airflow (H/F) freelance dans le cadre du renforcement de leur expertise sur les data pipelines de leur plateforme. MISSIONS · Développement de data pipelines Airflow extract-loead · Développemlent de dag Airflow d’administration · Maintien et évolution du framework on-top d’Airflow · On boarding et support aux équipes projets utilisatrices de la plateforme · Industrialisation d’une offre Airflow/BDT-Core ENVIRONNEMENT TECHNIQUE · Airflow · Python · DBT · Snowflake · Git · AWS · Kubernetes
Freelance

Mission freelance
Chef de projet data privacy opérationnel Didomi

Publiée le
JIRA

18 mois
100-580 €
Paris, France
Télétravail partiel
CONTEXTE : Plusieurs projets Data sont en cours : conformité de la collecte et des usages des données, identification des nouveaux cas d’usage d’activation des données utilisateurs, constitution du socle de données utilisateurs, développement de la connaissance des utilisateurs, gouvernance des données…Dans ce cadre, la Direction Data recherche une prestation de chefferie de projet pour l’accompagnement et la gestion de projet concernant la mise en conformité de ses assets numériques. Cette prestation concerne également la mise à jour des pop-ins de consentement de nos environnements dans la console Didomi. MISSIONS 1.L’Amélioration continue et opération des outils - Accompagner les équipes dans l’intégration de la CMP pour chaque offre et environnement : pré-requis, échange avec les parties prenantes, suivi de l’implémentation sur les environnements de tests, rédaction des cahiers de recette, réalisation de la recette et suivi de mise en production, - Rédiger les documentations nécessaires au partage de la connaissance de l’utilisation de l’outil (exemples : documentation d’implémentation, pas à pas …) - Piloter et participer au run de l’outil (exemples : évolution du paramétrage de la CMP, modification des pop-ins de la CMP, évolution des vendors…) - Cadrage et suivi des évolutions produits (sites et applications mobile) dans le respect des contraintes Data Privacy : CMP, bandeaux, mentions d’information… - Assurer la relation, la coordination et les évolutions de l’outil avec l’éditeur 2. Gestion de projet, acculturation et suivi - Suivi et pilotage de projets Data Privacy en étroite collaboration avec l’équipe RGPD - Organiser et animer les comités de pilotage des projets confiés - Rédiger les documentations nécessaires au partage de la connaissance et des décisions à destination des équipes (exemples : journal de décisions, charte d’utilisation de la donnée…) - Audit et recommandation Data Privacy sur la collecte des données, leur stockage, leur conservation au sein de l’environnement ainsi que leur activation marketing et publicitaire - Coordonner et communiquer les actions entre les parties prenantes : Data, Technique, Offres numériques, Croissance des offres, Publicité, Equipe RGPD - Partager les alertes projet aux différentes parties prenantes, - Garantir l'avancée des projets et de la qualité des livrables, - Assurer la création et l’évolution de la documentation projet, - Participer à l’organisation et l’animation d’ateliers de partage des connaissances et d’acculturation sur les enjeux de l’application opérationnelle de la conformité auprès des équipes 3. La rédaction de livrables attendus - Rédiger les supports des instances Projet (ODJ, CR) - Rédiger les supports de vulgarisation et de pédagogie sur les enjeux opérationnels de l’application de la conformité - Participer à la définition, au suivi et aux évolutions de la roadmap projet, Nous attendons du candidat des propositions de méthodologie projet (best practices) et/ou d’outils permettant de tracer et d’améliorer : - Les alertes projet - Les arbitrages pris (opérationnels et stratégiques), - Les actions à venir et les parties prenantes impliquées, - Les risques
Freelance
CDI

Offre d'emploi
Ingénieur DevOps GCP – Île de France (H/F)

Publiée le
Ansible
CI/CD
DevOps

1 an
Île-de-France, France
🔍 Contexte de la mission Dans le cadre de l’ouverture vers le Cloud et de la modernisation de ses infrastructures, une équipe produit « Digital Backbone » recherche un Ingénieur DevOps confirmé afin de contribuer au design, à la construction et aux opérations de la plateforme Cloud . L’objectif est d’assurer la mise en place de services GCP sécurisés et performants, tout en facilitant les échanges de données entre les applications internes et les environnements cloud publics. ⚙️ Objectifs et principales missions Participer à la mise en place des services Cloud GCP pour les environnements intranet et usines. Automatiser les déploiements via Ansible et Terraform . Mettre en œuvre une chaîne CI/CD complète (développement → production). Assurer le monitoring et la supervision des services déployés. Gérer des environnements Docker et garantir leur sécurité et performance (FinOps) . Fournir un support de niveau 3 (L3) et accompagner le RUN de la plateforme. 📦 Livrables attendus Plateforme Cloud GCP opérationnelle et documentée. Documentation technique et tableaux de bord de supervision. Support et accompagnement des équipes projets. Application des principes de Site Reliability Engineering (SRE) . 💡 Compétences techniques requises Compétences impératives : Cloud public GCP et services managés. Automatisation via Ansible et Terraform . CI/CD : GitLab CI, Jenkins (GitLab CI fortement apprécié). Linux , Docker , Git . Expérience avec Kubernetes et les architectures microservices. Notions de monitoring/performance (Prometheus apprécié). Compétences optionnelles : Développement Python ou Java . Expertise Ops et CI/CD en environnement RUN. Connaissance des bonnes pratiques SLO / SLI / SLA . 📍 Secteur : Industrie | Localisation : Ile de France (TT : 3j/semaines) 🕓 Mission longue durée – Démarrage ASAP
Freelance
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
Apache Airflow
DBT
DevOps

12 mois
40k-48k €
370-420 €
Cesson-Sévigné, Bretagne
Télétravail partiel
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
Freelance
CDI

Offre d'emploi
Data Analyst - Qlik Sense - Rennes

Publiée le
Data visualisation
Qlik Sense
Qlikview

3 mois
40k-45k €
400-450 €
Rennes, Bretagne
Télétravail partiel
Nous recherchons pour le compte de notre client grand compte national un(e) consultant développeur décisionnel . Ses Principales missions : Accompagnement des métiers dans l’expression des besoins et dans les recettes Modélisation décisionnelle Conception, réalisation et maintenance de tableaux de bord ou applications décisionnelles sous QlikView et/ou QlikSense Argain Consulting Innovation est une marque forte spécialisée en performance des projets, des organisations et valorisation de la donnée au sein de l'écosystème Alan Allman Associates implantée à Paris, Nantes, Lyon, Niort. Nous mettons un point d'honneur à maintenir le lien avec chacun de nos talents et mettons tout en œuvre pour développer et entretenir un fort sentiment d'appartenance. Nous rejoindre, c’est intégrer une équipe à taille humaine dont l’humain est l’épicentre, un cabinet où autonomie, confiance et partage sont des principes forts.
CDI
CDD

Offre d'emploi
Concepteur / Développeur Full Stack Java – Sophia Antipolis (H/F)

Publiée le
Java
Spring Data
Spring Security

3 mois
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🔍 Contexte de la mission Dans le cadre d’un projet à fort enjeu opérationnel au sein du secteur de la santé numérique européenne , la mission consiste à concevoir, développer et opérer une plateforme de services et d’intermédiation à l’échelle européenne. Ce projet stratégique s’inscrit dans un contexte international, nécessitant une maîtrise technique solide et une capacité à collaborer dans un environnement multiculturel . ⚙️ Objectif global Participer à la construction, au développement et à l’exploitation d’une plateforme innovante de services numériques dans le domaine de la santé, en garantissant la qualité technique et la conformité aux standards européens. 🧩 Missions principales Concevoir l’architecture technique et logicielle de la plateforme. Définir et mettre en place l’environnement de développement (outils, méthodes, CI/CD). Choisir la stack technique la plus adaptée aux besoins du projet. Réaliser la conception technico-fonctionnelle des modules applicatifs. Développer et intégrer les différentes briques logicielles (Java / Spring Boot / bases de données). Accompagner les développeurs full stack dans la mise en œuvre des bonnes pratiques. Participer à la rédaction des spécifications fonctionnelles et techniques , dossiers d’architecture et de migration. 📦 Livrables attendus Dossier de spécifications fonctionnelles et techniques. Dossier d’architecture technique et logicielle. Dossier de migration et de bascule opérationnelle. 💡 Compétences techniques requises Java – Niveau Expert (impératif). Spring Boot / Spring Data / Spring Security – Confirmé (impératif). Architecture logicielle – Confirmé (impératif). Base de données relationnelles (SQL) – Confirmé (impératif). Bon niveau en anglais professionnel et français courant .
CDI

Offre d'emploi
Directeur/Chef de projet IA Assurance

Publiée le
Finance
Gestion de projet

80k-90k €
Paris, France
Télétravail partiel
Rejoins une jeune société qui souhaite apporter un vent de fraîcheur dans le monde du conseil. Chez nous, l’IA passe du discours à l’exécution. Tu piloteras des produits qui vivent en production, tu challengeras éditeurs et équipes, tu transformeras des besoins métier en résultats mesurables. Au-delà des projets, tu façonneras l’offre de service IA d’Alycea: méthode, packaging, études de cas, outillage commercial. Contexte exigeant, autonomie forte, latitude pour imposer des standards et installer une référence sur notre marché. Le projet pour lequel on cherche un profil comme le tien : Accompagner un de nos clients sur le pilotage de plusieurs projets IA et le conseiller/challenger sur le périmètre, les cas d'usages et autres décisions. Tes activités : Cadrer les besoins métier, formaliser objectifs, prioriser un backlog mesurable. Piloter en agile les chantiers “assistant in-app”, parcours <12 mois, dashboard commissions. Challenger éditeurs et équipes dev sur périmètre, délais, coûts, risques, conformité, SLA. Structurer l’évaluation IA: intents, critères d’acceptation, taux de réponses sourcées, latence, coût. Orchestrer la recette fonctionnelle et l’UAT. Gouverner les changements et la documentation. Assurer conformité RGPD et santé: consentement, cloisonnement assurance/santé, notices, DPIA. Aligner parties prenantes et piloter la feuille de route, budgets, risques et dépendances. Compétences requises : AMOA et agilité: Scrum/Kanban, user stories, priorisation par valeur, roadmap, rituel. Data/IA non technique: principes LLM, RAG, métriques de qualité, limites et risques, lecture d’architectures. Conformité: RGPD, données de santé, coordination DPO, gestion du consentement. Product ops: UAT, A/B test, instrumentation KPI, contrats SLA, gouvernance partenaires. Outils: Jira/Confluence, Miro, Suite Google, Notion, Metabase/Looker, CRM/Pipedrive, suites bureautiques.
Freelance

Mission freelance
DATA ENGINEER AZURE/FABRICS H/F

Publiée le
Azure
CI/CD
Git

3 mois
400-550 €
Paris, France
Télétravail partiel
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée (POSTE) deux Data Engineers Azure/Fabrics H/F expérimentés maîtrisant Python, PySpark et Microsoft Fabric dans un environnement Azure Cloud. Au sein de la Digital Factory de TotalEnergies, organisation internationale regroupant 300 collaborateurs et 25 nationalités, le consultant contribuera à la conception, l’industrialisation et la mise en production de pipelines Fabric de nouvelle génération, destinés à supporter des usages data critiques à grande échelle. Objectifs et livrables: Collecter les besoins métiers et utilisateurs. Concevoir l’architecture de données cible sous Microsoft Fabric. Développer, optimiser et automatiser les pipelines PySpark / Fabric. Mettre en production les flux sur Fabric / Azure. Assurer la maintenance, l’évolution et la supervision de l’architecture. Documenter et collaborer avec les squads agiles et les équipes techniques. Compétences attendues: Python (4/4) PySpark (4/4) Microsoft Fabric (3/4) — certification Fabric Data Engineer Associate appréciée Azure Cloud (3/4) CI/CD, Git, orchestrateurs data Anglais professionnel (3/4) Ces compétences permettront au consultant de couvrir intégralement les enjeux : ingestion avancée, transformation distribuée, automatisation, optimisation, gouvernance, supervision et industrialisation à grande échelle.
CDI
Freelance

Offre d'emploi
Data Product Owner

Publiée le
Data science
Dataiku
MLOps

2 ans
40k-52k €
400-450 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
📢 [CDI] Product Owner Data – RPA / MLOps / Data Science 🎯 Votre mission sera de faire le lien critique entre les besoins des experts fonctionnels (gestionnaires de contrats, actuaires, équipes commerciales....) et la réalité technique des squads de développement. Vous contribuerez au déploiement des offres de services de cette équipe nouvellement créée, ainsi qu'à la contribution du modèle opérationnel. Vous serez responsable de la définition, de la priorisation et de la livraison d'un portefeuille de produits data qui auront un impact direct et mesurable sur la performance de l'entreprise et la satisfaction de nos assurés. 📍 Niort – 3j sur site / 2j TT 🧠 +7 ans d'expérience 🔧 Stack : RPA, MLOps, Data Science, Dataku 💼 Contexte agile / data / automatisation
CDI

Offre d'emploi
Chef de Projet SI / Assurance Qualité - Flux de Paiement - Ile-De-France (H/F)

Publiée le
JIRA
SEPA
Xray

66k-70k €
Île-de-France, France
Télétravail partiel
Contexte du poste Au sein d'un groupe phare du secteur bancaire et acteur majeur en Europe, nous nous engageons dans la transformation digitale de nos services de paiement. Notre département IT Flux gère l'infrastructure de paiement pour les banques du groupe, ainsi qu'une clientèle d'établissements externes. À compter d'aujourd'hui, nous modernisons nos plateformes internationales. Le rôle à pourvoir est un poste clé de Chef de Projet SI, crucial pour garantir l'excellence de nos évolutions fonctionnelles. Missions Piloter les projets SI liés aux flux de paiements : cadrage, planning, risques, coordination et suivi qualité. Valider les évolutions fonctionnelles et garantir que les correctifs ne génèrent pas de régression. Construire les cahiers de tests, estimer la charge de recette et planifier les campagnes. Réaliser les tests d’acceptance, de non-régression et les recettes fonctionnelles sur les environnements dédiés. Intégrer et dérouler les scénarios dans Jira/Xray, assurer la traçabilité et produire le reporting d’avancement. Participer à la rédaction des spécifications techniques et contribuer aux choix de solutions. Superviser les développements, les intégrations et l’ensemble des validations côté SI. Préparer les déploiements, organiser la maintenance et accompagner les utilisateurs dans la prise en main. Stack technique Règles et mécanismes des flux de paiements SEPA et CFONB. Utilisation de plateformes d'échanges interbancaires (CSM). Outils de gestion de projet comme JIRA et Xray. Environnement technique global : Infrastructure ITX et DB2. Technologies de conteneurisation pour une architecture modernisée.
Freelance

Mission freelance
Data Engineer - Gen AI - Finance (h/f)

Publiée le

12 mois
600-700 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
Freelance

Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)

Publiée le
Amazon DynamoDB
Amazon S3
API

12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
2592 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous