L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 567 résultats.
Mission freelance
Data Engineer H/F
HAYS France
Publiée le
Data Lake
Microsoft Analysis Services (SSAS)
Microsoft Power BI
1 an
Île-de-France, France
Contexte de la mission Dans le cadre du programme de Digital and Data Transformation , a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data , la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales. Prestation Attendue Data Engineering & Delivery • Conception et mise en œuvre des pipelines ETL / ELT • Développement de jobs ETL réutilisables • Gestion des chargements Delta / Full / Historique • Debugging et résolution d’incidents en production • Mise en œuvre des bonnes pratiques de développement à la mise en production Collaboration & Méthodologie • Travail en étroite collaboration avec le Product Owner, les équipes data et plateforme • Contribution aux phases de Data Scoping / Discovery • Méthodologie Agile • Interaction avec des équipes distribuées (multi‑pays) Livrables • Composants data développés et déployés (code source) • Documentation technique et fonctionnelle • Modèle de données documenté • Rapports d’audit et de sanity check • Rapports de tests d’acceptation • Transfert de compétences et support aux équipes
Mission freelance
Chef de Projet Data (F/H)
CELAD
Publiée le
Big Data
DORA
Google Cloud Platform (GCP)
12 mois
450-470 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Chef de Projet Data pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Piloter des projets IT orientés Data de bout en bout, de la phase de cadrage jusqu’à la mise en production Recueillir et analyser les besoins métiers, en lien étroit avec les équipes Communication et les parties prenantes Coordonner les équipes techniques (développeurs, architectes, production, sécurité) et assurer le bon déroulement des projets Garantir le respect des engagements en termes de qualité, coûts, délais et sécurité Participer à la conception technique et à la rédaction des spécifications détaillées Superviser les phases de développement, de tests et de recette Assurer la mise en production des solutions dans un environnement CI/CD Piloter la documentation projet (dossiers d’architecture, ISP, exigences réglementaires DORA) Gérer la relation avec les différents interlocuteurs internes et externes Accompagner le changement et assurer le support auprès des utilisateurs
Mission freelance
DATA Engineer - AWS (DataOps)
Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
AWS Glue
6 mois
450-500 €
Paris, France
Nous recherchons un Data Engineer pour industrialiser un prototype d’application existant. Le projet implique une forte dimension infra et scalabilité , avec l’objectif de passer d’un prototype à une architecture robuste, maintenable et industrialisée. Le candidat interviendra également sur des sujets de refonte de la codebase et de préparation du déploiement en infrastructure as code . 🎯 Missions principales Industrialiser un prototype d’application data en environnement SaaS Revoir la codebase existante pour anticiper les enjeux de scalabilité Concevoir et mettre en place une architecture data robuste et évolutive Participer à la mise en place d’une approche Infrastructure as Code Construire et maintenir des pipelines de données fiables et scalables Travailler sur des problématiques d’architecture cloud et d’industrialisation Collaborer avec des interlocuteurs techniques (profil très orienté tech) 🛠 Stack technique Cloud : AWS (GCP apprécié mais non obligatoire) IaC : Terraform Orchestration : Airflow Langage : Python Environnement : SaaS / Data Engineering / Infra scalable
Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)
WorldWide People
Publiée le
Data science
9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Mission freelance
Data Engineer Senior F/H
SMARTPOINT
Publiée le
AWS Cloud
CI/CD
DevOps
12 mois
480-500 €
Île-de-France, France
Mission principale Assurer le développement, la mise en œuvre opérationnelle et la maintenance des pipelines et services de données au sein de la plateforme Data. Services, en garantissant leur fiabilité, performance et sécurité. Tâches & activités Concevoir et développer des pipelines de données (ETL) notamment avec Kestra Manipuler, transformer et optimiser les données (SQL / NoSQL) Assurer la maintenance en conditions opérationnelles (MCO) des pipelines et services data Participer à la sécurisation des migrations fonctionnelles et techniques Contribuer à l’amélioration continue des processus data (qualité, performance, monitoring) Collaborer avec les équipes techniques et métiers pour cadrer et implémenter les besoins Livrables & résultats attendus Développement de 10 à 14 pipelines / algorithmes par an Maintien en conditions opérationnelles des solutions (suivi quotidien) Production de rapports d’activité et comptes rendus d’intervention Garantie de la qualité, de la fiabilité et de la performance des flux de données Compétences techniques Excellente maîtrise de SQL et des outils ETL (Kestra) Bonne connaissance des environnements Cloud AWS Culture DevOps / CI-CD (industrialisation, automatisation) Compétences en modélisation de données (UML est un plus) Connaissance des bases NoSQL
Offre d'emploi
Développeur Back-End Java IA H/F
JEMS
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Au sein de la Practice Digitale du Groupe, vous rejoindrez une équipe d'experts et de passionnés et apporterez votre contribution sur des projets d'envergure. Vous aurez la charge de : • Participer à la conception des user ou technical stories à implémenter • Réaliser des analyses techniques et des études d'impacts en amont des développements • Développer des solutions dans le respect des bonnes pratiques • Produire un code de qualité, lisible, documenté et maintenable par l'équipe • Tester votre code et apporterez les corrections nécessaires • Participer activement à l'amélioration des applications, d'un point de vue expérience utilisateur et technique • Participer à l'amélioration des pratiques de développements et au partage de connaissances en intégrant nos communautés Référence de l'offre : sxtvtrmzzn
Offre d'emploi
Consultant Senior ETL/ Data Engineering H/F - CDI
GROUPE ARTEMYS
Publiée le
Conception
40k-45k €
76600, Le Havre, Normandie
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Nous recrutons dès à présent un Consultant Senior ETL/ Data Engineering H/F en CDI. Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions pour l'un de nos clients au Havre (76) auprès duquel vous aurez la possibilité d'effectuer les tâches suivantes : Réaliser un audit complet (état des lieux, identification des points de blocage) Formuler des recommandations concrètes sur l’architecture, les workflows et les usages Accompagner les équipes dans la mise en œuvre des préconisations Vos missions Phase 1 – Audit : Analyse des deux environnements ETL existants Évaluation des workflows, de l’architecture et des usages Identification des axes d’amélioration Rédaction d’un audit structuré avec recommandations actionnables Phase 2 – Accompagnement : Participation à la refonte des workflows et de l’architecture Aide à la mise en œuvre des solutions recommandées Accompagnement des équipes internes (montée en compétences) Contribution à la clarification des usages ETL vs API Le profil que nous recherchons : Minimum 8 ans d’expérience en ETL / Data Engineering Forte capacité d’analyse et de prise de recul (vision architecture et workflows) Expérience sur plusieurs solutions ETL (capacité de comparaison et projection) Solide culture data engineering (architecture, conception, refonte) Bonne maîtrise des bases de données (relationnelles type MySQL et NoSQL type Cassandra) Bonne compréhension des API et capacité à distinguer les usages ETL vs outils API La connaissance de NiFi est un plus Vous êtes reconnu.e pour votre posture de conseil, votre force de proposition, votre vision stratégique, votre pédagogie et votre orientation solutions Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 40 000 - 45 000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics
Ela Technology
Publiée le
Machine Learning
Python
SQL
6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Mission freelance
101684/Data Engineer Data de Google (Google Tag Management, Looker Studio et BigQuery) NANTES
WorldWide People
Publiée le
Google Tag Manager
9 mois
400-440 €
Nantes, Pays de la Loire
Data Engineer Data de Google (Google Tag Management, Looker Studio et BigQuery) NANTES Mission dans le secteur de l'assurance qui consiste à intervenir sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery) pour optimiser l'exploitation des données dans un environnement agile (SAFe). La mission a lieu à Niort et ne peut pas être réalisée en distancielle mais permet 3 jours de télétravail. Activités confiées : - Collaborer avec l'équipe sur la définition des objectifs et KPI’s pour la mesure des fonctionnalités. - Accompagner la définition des besoins en tracking. - Recetter les données en phase de test des fonctionnalités. - Recetter les données après la mise en production des fonctionnalités. - Préparer et ingérer des données dans BigQuery (en Node JS). - Mettre à disposition des données fiabilisées dans Looker Studio. - Participer à l'analyse des données produites et en tirer des enseignements. - Optimisation et amélioration continue : - Veiller au bon fonctionnement de l'ingestion quotidienne des données et appliquer des correctifs si nécessaire. - Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train. - Gérer et optimiser les processus existants. - Analyse et communication : - Participer à l'analyse des données issues des monitoring pour en tirer des enseignements. - Participer à l'amélioration continue des tracking, des processus ou du fonctionnement de l'équipe. - Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features. La mission nécessite que le data Engineer soit autonome sur les technologies suivantes : - Script shell. - Python. - BigQuery. - JavaScript. - Piano Analytics (à créer à la place d'Adobe Analytics). - Looker Studio. - Google Tag Manager.
Mission freelance
Chef de projet Risque / SAFe (H/F)
Freelance.com
Publiée le
Agent IA
Microsoft Excel
Safe
3 ans
280-500 €
Maisons-Alfort, Île-de-France
Dans le cadre du renforcement d’un dispositif de maîtrise des risques IT au sein d’une Direction des Systèmes d’Information (DSI), nous recherchons un(e) consultant(e) pour accompagner une équipe dédiée aux contrôles et à la gestion des risques. Intégré(e) à une équipe spécialisée, vous interviendrez en collaboration étroite avec les différentes équipes de la DSI, dans un environnement agile à l’échelle (framework SAFe). Votre rôle consistera à contribuer à la mise en œuvre et au suivi des politiques de conformité, de contrôle et de gestion des risques IT, ainsi qu’à leur déclinaison opérationnelle. À ce titre, vos principales responsabilités seront : Suivre et piloter la mise en œuvre des actions de remédiation liées aux non-conformités S’assurer de la bonne exécution des contrôles par les équipes IT Conduire des actions de sensibilisation et de communication autour des enjeux de risques et de conformité Participer à l’amélioration continue via l’automatisation des contrôles et l’exploration de solutions innovantes (dont IA) Maintenir et faire évoluer la documentation IT liée aux processus de contrôle et de gestion des risques Contribuer, selon les besoins, à des sujets transverses au sein de la DSI
Mission freelance
Consultant Senior ETL/ Data Engineering (H/F) - Freelance
GROUPE ARTEMYS
Publiée le
Conception
6 mois
400-500 €
76600, Le Havre, Normandie
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Nous recrutons dès à présent un Consultant Senior ETL/ Data Engineering H/F en Freelance . Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions pour l'un de nos clients au Havre (76) auprès duquel vous aurez la possibilité d'effectuer les tâches suivantes : Réaliser un audit complet (état des lieux, identification des points de blocage) Formuler des recommandations concrètes sur l’architecture, les workflows et les usages Accompagner les équipes dans la mise en œuvre des préconisations Vos missions : Phase 1 – Audit : Analyse des deux environnements ETL existants Évaluation des workflows, de l’architecture et des usages Identification des axes d’amélioration Rédaction d’un audit structuré avec recommandations actionnables Phase 2 – Accompagnement : Participation à la refonte des workflows et de l’architecture Aide à la mise en œuvre des solutions recommandées Accompagnement des équipes internes (montée en compétences) Contribution à la clarification des usages ETL vs API Le profil que nous recherchons : Minimum 8 ans d’expérience en ETL / Data Engineering Forte capacité d’analyse et de prise de recul (vision architecture et workflows) Expérience sur plusieurs solutions ETL (capacité de comparaison et projection) Solide culture data engineering (architecture, conception, refonte) Bonne maîtrise des bases de données (relationnelles type MySQL et NoSQL type Cassandra) Bonne compréhension des API et capacité à distinguer les usages ETL vs outils API La connaissance de NiFi est un plus Vous êtes reconnu.e pour votre posture de conseil, votre force de proposition, votre vision stratégique, votre pédagogie et votre orientation solutions Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions de rémunération : Statut : Indépendant / Freelance TJM : Entre 400€ et 500€ (Selon votre expertise) Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Senior Python Engineers orientés Data & Distributed Systems
Comet
Publiée le
AWS Cloud
Numpy
Pandas
6 mois
400-650 €
Paris, France
Bonjour à tous, notamment aux Senior Python Engineers orientés Data & Distributed Systems 🐍☁️ (AWS / Spark / Ray / Pandas / Performance) ⚠️ Seniorité de 8 ans minimum 🔎 Je cherche un Senior Software Engineer Python pour rejoindre un programme stratégique au sein d’un grand acteur de la finance quantitative, autour de la valorisation de données financières massives (tick data L3). Dans ce contexte très exigeant, l’objectif est de rendre exploitables des datasets ultra-volumineux pour des chercheurs, en construisant des solutions de feature engineering distribuées tout en conservant une expérience utilisateur simple type pandas. 💻 Ce que tu vas faire : - Traduire des workflows Python/pandas en traitements distribués (Spark, Ray…) - Optimiser des traitements sur des volumes massifs de données (performance, scalabilité) - Concevoir des abstractions simples pour les data scientists (UX orientée chercheurs) - Participer aux choix d’architecture (Spark / Ray / Iceberg…) - Travailler sur des datasets complexes (données temporelles, dépendances, déséquilibres) - Collaborer étroitement avec des équipes ML Platform et des chercheurs quant - Contribuer à une plateforme data scalable et industrialisée sur AWS 🎯 Stack & environnement : Python (expert) / Pandas / NumPy / Spark / Ray / AWS (S3, EMR, SageMaker) / Iceberg / Data Lake / Feature Engineering / HPC (bonus) / Kubernetes (EKS en réflexion) 📍 Mission : Paris 💰 TJM : Selon profil 📅 Démarrage : ASAP
Offre d'emploi
Revenue Data Analyst F/H - Finance, trésorerie (H/F)
█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Voisins-le-Bretonneux, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Senior IT PMO – Trading / Data Platform Migration – Zurich (Remote)
Avanda
Publiée le
Zurich, Suisse
Avanda is a Swiss IT Consultancy. We are currently looking for a Senior IT PMO to join our international team at our global end client in the Zurich area. This is a long term opportunity (project goes into 2028) and you can work remotely and come once a month for meetings. THE ROLE You will join a multi-year Market Data to Data & Analytics Platform Migration programme in the Trading sector. As the PMO, you will support the workstream leads and the Project Manager on planning, coordination, and the day-to-day running of the programme across multiple workstreams. YOUR RESPONSIBILITIES Support workstream leads on planning, status tracking, and cross-workstream coordination Prepare and run project meetings: agenda, minutes, actions and decision logs, follow-up Maintain project documentation, status reports, and management updates Track open points, risks, issues, and dependencies across workstreams and escalate to the PM where needed Help with preparation of documents for the steering bodies Support onboarding of new project members and general project administration YOUR PROFILE 8+ years' classical PMO / project management support background Experience in IT and development team environments, ideally on larger migration or platform projects Strong organisational skills – structured, reliable, detail-oriented, and a self-starter Confident and experienced in stakeholder communication at working level Fluent in JIRA and standard PMO tooling Fluent English (mandatory); German is a plus Experience in Risk Management or Trading environments is a strong plus If this sounds like your next challenge and you would like to know more please send us your updated cv and we will call you shortly to discuss it in more details.
Mission freelance
Consultant AWS Agentic
STHREE SAS pour COMPUTER FUTURES
Publiée le
Agent IA
AWS Cloud
3 mois
270-430 €
Île-de-France, France
Bonjour, Je suis à la recherche d’un Consultant AWS Agentic : Missions principales : Ø Concevoir et développer des agents intelligents basés sur AWS Bedrock AgentCore Ø Implémenter et configurer les composants AgentCore : Runtimes, Short-Term / Long-Term Memories, Observability, Identity, Gateway et Policy Ø Développer et orchestrer des workflows agentiques avec : LangChain, LangGraph Ø Intégrer les agents avec des APIs exposées via AWS API Gateway Ø Mettre en place la supervision et le monitoring via CloudWatch Ø Contribuer à l’industrialisation : CI/CD via GitHub Actions, Terraform pour les pipelines et l’infrastructure, Gestion des artefacts via Artifactory Ø Collaborer avec les équipes Front-End : FE développé en React, FE probablement hébergé sur OpenShift Ø Implémenter et respecter les protocoles agentiques :MCP (Model Context Protocol), A2A (Agent-to-Agent)
Mission freelance
Data Analyst Professional
Codezys
Publiée le
Data visualisation
Python
SQL
12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2567 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois