Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 408 résultats.
Freelance

Mission freelance
senior/expert AWS Agentic 

WorldWide People
Publiée le
AWS Cloudwatch

3 mois
400-500 €
France
senior/expert AWS Agentic Caractéristiques : Client : pharmaceutique 5 à 10 ans d’expérience anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : France Technologies : AWS Bedrock Agentcore Runtimes ST / LT memories Observability Agentcore identity Agentcore gateway Agentcore policy Cloudwatch Langchain + Lang-graph Github actions FE built with React FE likely hosted on OpenShift AWS API gateways Terraform for CICD pipelines along with Artifactory MCP and A2A agent protocols Nice to have: Knowledge of Neo4J Knowledge of GenBI platforms Weights and balances
CDD
CDI
Freelance

Offre d'emploi
Architecte Cloud AWS- KBS

KEONI CONSULTING
Publiée le
AWS Cloud
IAM
VPC (Virtual Private Cloud)

18 mois
20k-60k €
100-600 €
Bordeaux, Nouvelle-Aquitaine
CONTEXTE Dans le cadre de sa stratégie de modernisation et de sécurisation de ses infrastructures numériques, le client souhaite s’entourer d’un Architecte Cloud AWS- KBS spécialisé dans l’intégration, l’exploitation et l’évolution de solutions Cloud sur AWS. Le profil devra être en mesure d’assister les équipes du client tant sur la conception et le déploiement de nouvelles architectures que sur la maintenance opérationnelle des services existants, dans une démarche DevSecOps, axée sur la performance, la sécurité, la fiabilité et l’optimisation des coûts L’ Architecte Cloud AWS- KBS c onçoit les architectures cloud sécurisées, résilientes et évolutives répondant aux besoins de l'organisation, en garantissant les principes de Security-by-Design et la portabilité multicloud. MISSIONS Participer à : Intégration et MCO Cloud A. Intégration et Déploiement • Conception d’architectures AWS sécurisées • Déploiement d’environnements • Paramétrage de services AWS • Mise en œuvre et optimisation notamment d’EKS : nodes, autoscaling, gestion des pods, namespaces, ingress, network policies, etc. • Industrialisation via IaC (Terraform) B. MCO / Run • Supervision et maintenance corrective, préventive et évolutive • Mise à jour des composants : Kubernetes, drivers, nodes, AMIs, OpenSearch, drivers DB, ALB/ingress, etc. • Gestion des incidents avec SLA détaillés proposés (détail exigé) • Monitoring / Observabilité / Alerting (technique + métier) • Gouvernance et registry d’images Docker (sécurité, scan, policy) • Gestion des coûts et optimisation (FinOps) C. Sécurité et Conformité • Zero Trust / IAM Roles / RBAC Kubernetes / Key rotation • Scan de vulnérabilités images, dependencies, clusters • Encryption au repos/en transit (KMS) • Conformité RGPD / CNIL / Cloud Act • Proposition d’architecture Security-by-Design D. Documentation et Transfert de compétences • Documentation détaillée des architectures, outils, procédures, PRA, sauvegardes, patterns, runbooks d’exploitation • Formations techniques ciblées (EKS, observabilité, pipeline CI/CD, sécurité) • Engagement sur transfert de compétences avec plan structuré livrables techniques : participer à la livraison entre autres de • Document d'architecture AWS avec schémas • Scripts Terraform documentés • Configuration complète EKS (clusters, nodes, namespaces) • Procédures de déploiement • Dashboards de monitoring Grafana/CloudWatch • Guide d'exploitation détaillé • Plan de transfert de compétences • Documentation des procédures • Étude de portabilité multicloud • Plan de réversibilité • Scripts de migration • Documentation technique de sortie • Indicateurs coûts et optimisation Expertises Compétences clés attendues: · Conception d'architectures AWS Well-Architected (sécurité, fiabilité, performance, coût) · Maîtrise avancée des services AWS : Compute, Réseau, Stockage, Sécurité, Serverless · Conception d'architectures EKS complexes et multi-environnements · Stratégie de sécurité Zero Trust et architecture Security-by-Design · Élaboration de stratégies multicloud et plans de réversibilité · Conception de solutions d'observabilité end-to-end (logs, métriques, traces) · Gouvernance des accès IAM à grande échelle (policies, rôles, fédération) · Modélisation des flux réseau et segmentation (VPC design, Transit Gateway) · Pilotage des revues d'architecture et des études de portabilité · Production de livrables d'architecture (schémas, ADR, patterns de référence)
Freelance

Mission freelance
ML Platform Senior DevOps Engineer

ARGANA CONSULTING CORP LLP
Publiée le
AWS Cloud
Cloud
Docker

6 mois
400 €
Paris, France
Nous recherchons un(e) DevOps Engineer Senior pour intervenir au sein d’une équipe ML Platform & ML Lab, dans un environnement technique avancé orienté Machine Learning et infrastructure cloud à grande échelle. 🎯 Votre rôle 🔵 Configuration et gestion de l’infrastructure cloud (Lambda) pour l’accès GPU des équipes ML 🔵 Mise en place de bonnes pratiques FinOps et protection contre les erreurs critiques 🔵 Optimisation des images Docker pour réduire les temps de cold start 🔵 Mise en place et maintien des systèmes de monitoring des entraînements de modèles 🔵 Contribution aux projets ML Platform sur AWS (CI/CD, tooling, infrastructure) 🔵 Automatisation des process et amélioration continue des workflows 🔵 Renforcement de la sécurité (audit, vulnérabilités, gestion des risques) 🚀 Votre impact 🔵 Améliorer la productivité des équipes ML 🔵 Garantir la robustesse et la scalabilité des environnements de training 🔵 Accélérer les workflows via automation et CI/CD 🔵 Renforcer la fiabilité et la sécurité des infrastructures cloud 🛠️ Stack & environnement 🔵 AWS 🔵 Terraform 🔵 Docker (optimisation d’images large scale) 🔵 GitLab CI / Jenkins 🔵 Linux / UNIX 🔵 Monitoring & observability 🔵 Environnement ML / GPU / cloud (Lambda) 📌 Informations complémentaires 🔵 Mission freelance 🔵 Hybride ou remote selon organisation 🔵 Mission longue durée
Freelance

Mission freelance
Data Engineer Senior / Lead Data

Tenth Revolution Group
Publiée le
AWS Cloud
Collibra
Databricks

6 mois
620-660 €
Paris, France
Dans le cadre d'une mission chez un grand acteur du secteur de l'énergie en France, nous recherchons des profils Data Engineer Senior++ / Lead Data disponibles entre mi-mars et mi-mai 2025. Le client, accompagné par un cabinet de conseil top tier, recherche des consultants capables de s'emparer d'un périmètre data, de le cadrer et de le développer en toute autonomie. Plusieurs positions sont à pourvoir. La maîtrise et l'usage quotidien de l'IA dans le travail est un critère indispensable.
Freelance

Mission freelance
[SCH] Administrateur Snowflake – AWS / Terraform / DataOps - 1415

ISUPPLIER
Publiée le

10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre d’un projet stratégique de migration Oracle Exadata vers Snowflake, notre client recherche un Administrateur Snowflake afin de participer à la construction et à la sécurisation de la plateforme cible. L’environnement technique repose sur Snowflake hébergé sur AWS, avec des composants comme PrivateLink, Direct Connect, dbt, Airflow et Terraform. Le consultant interviendra en co-construction avec le pôle architecture pour définir les fondations de la plateforme, concevoir l’architecture cible et garantir la performance, la sécurité et la maîtrise des coûts dans une logique NextGen. Missions : -Participer au design et au build des fondations de la plateforme Snowflake -Définir le sizing et l’isolation des workloads -Mettre en place la sécurité cible : RBAC, gestion des accès, authentification -Créer et maintenir les socles Infrastructure as Code avec Terraform -Administrer la plateforme Snowflake au quotidien : rôles, utilisateurs, policies, comptes techniques -Gérer les Network Policies et les intégrations externes -Contribuer aux revues d’architecture et à la définition de l’architecture cible -Optimiser les performances, la fiabilité et les coûts de la plateforme -Assurer le monitoring, le tuning et le troubleshooting avancé -Participer aux pratiques DataOps / CI/CD autour de Snowflake, dbt et Airflow -Mettre en place des automatisations via SQL, Python, Tasks & Streams -Suivre les indicateurs de consommation et contribuer à la démarche FinOps Profil attendu : -Expertise avancée sur Snowflake (architecture, Virtual Warehouses, RBAC, performance) -Bonne maîtrise des environnements AWS (réseau, PrivateLink, Direct Connect) -Très bonne maîtrise de Terraform pour l’IaC Snowflake / AWS -Expérience en DataOps / CI-CD / pipelines de déploiement -Bonne connaissance de dbt et Airflow -Maîtrise des problématiques de sécurité avancée (Key-Pair, Network Policies, intégrations externes) -Capacité à intervenir sur l’optimisation SQL et le troubleshooting de requêtes -Compétences en Python / SQL pour l’automatisation -Sensibilité aux enjeux FinOps, monitoring et optimisation de coûts -Capacité à travailler en collaboration avec les équipes architecture et data platform
Freelance

Mission freelance
Développeur AWS

Groupe Aptenia
Publiée le
Angular
AWS Cloud
DevOps

6 mois
Bordeaux, Nouvelle-Aquitaine
Développer et maintenir les composants backend en Python en s'appuyant sur des pratiques de test rigoureuses : JUnit, tests d'intégration, Cypress, Playwright et tests E2E Concevoir et développer les interfaces frontend en Angular avec Amazon CloudFront en respectant les standards définis par le Lead Développeur Interroger et maintenir les bases de données DynamoDB, RDS et OpenSearch Développer et déployer des applications cloud-native sur AWS (Lambda, SNS, SQS, CloudWatch, CloudFormation) en respectant les contraintes et procédures de production Appliquer les pratiques DevOps de l'équipe : Terraform, GitLab, Docker, KICS, WIZ, respect des pipelines CI/CD, du versioning et suivi des DORA Metrics Utiliser Confluence pour la documentation et Jira pour le suivi des tickets et des sprints Utiliser l'IA pour la génération, la revue et l'optimisation de code ainsi que pour les activités de test
Freelance

Mission freelance
DevOps Engineer Senior

Aneo
Publiée le
AWS Cloud
Kubernetes
Python

7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Freelance
CDI

Offre d'emploi
Ingénieur devops AWS

OBJECTWARE
Publiée le
DevOps

3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client un.e ingénieur devops AWS. Vos missions seront : Conception, développement et maintenance de l'automatisation de l'infrastructure à l'aide d'outils d’Infrastructure as Code. Encadrement d'une équipe d'ingénieurs SRE afin de garantir la fiabilité, la sécurité et la scalabilité de la plateforme. Pilotage des processus d'automatisation et de gestion des incidents, conformément aux principes SRE. Contribution à l'évolution du cycle de vie du développement logiciel (SDLC) afin de répondre aux exigences métier, de gouvernance et opérationnelles. Collaboration avec les parties prenantes pour améliorer les pratiques de développement, la sécurité et la conformité. Expertise : Ingénierie logicielle : Expérience confirmée dans le développement de fonctionnalités, d'API ou d'outils d'automatisation en environnement cloud ou d'entreprise. Infrastructure as Code (IaC) : Expertise approfondie d’outils de déploiement et de gestion de configuration. Supervision et incidents : Bonne maîtrise des systèmes de supervision, alertes et gestion des incidents. Architecture système : Conception d’architectures scalables, sécurisées et résilientes. DevSecOps et CI/CD : Maîtrise des pipelines CI/CD et des stratégies de déploiement. Expertise technique : Plateforme de gestion de code source d’entreprise : Expérience de son administration et de son exploitation. Cloud : Connaissance des principaux fournisseurs cloud (environnements hybrides, contraintes de résidence des données). Sécurité et conformité : Maîtrise des enjeux de gouvernance et de conformité. Langages et outils : Scripts (ex. : Bash, PowerShell) et outils d’automatisation. Outils collaboratifs : Outils de gestion de projet et de documentation. Compétences supplémentaires : Collaboration avec des équipes pluridisciplinaires et parties prenantes. Excellentes capacités d’analyse et de résolution de problèmes.
Freelance

Mission freelance
Lead Développeur AWS

Groupe Aptenia
Publiée le
Angular
AWS Cloud
DevOps

6 mois
Bordeaux, Nouvelle-Aquitaine
Assurer le leadership technique de l'équipe de développement : Définir les standards de code Animer les revues Aaccompagner la montée en compétences des développeurs Développer et maintenir les composants backend en Python en garantissant la qualité via JUnit, tests d'intégration, Cypress, Playwright et tests E2E Concevoir et développer les interfaces frontend en Angular avec Amazon CloudFront Gérer et interroger les bases de données DynamoDB, RDS et OpenSearch selon les besoins fonctionnels Développer et déployer des applications cloud-native sur AWS (Lambda, SNS, SQS, CloudWatch, CloudFormation) en respectant les contraintes de production Maîtriser la chaîne DevOps complète : Terraform, GitLab, Docker, KICS, WIZ, pipelines CI/CD, versioning et DORA Metrics Utiliser les outils de gestion de projet Confluence et Jira pour le suivi des activités et la documentation Utiliser l'IA pour accélérer la génération, la revue et l'optimisation de code ainsi que les activités de test
Freelance

Mission freelance
Ingénieur DevSecOps AWS

Groupe Aptenia
Publiée le
Argo CD
AWS Cloud
DevOps

6 mois
Bordeaux, Nouvelle-Aquitaine
Concevoir et maintenir l'infrastructure as code avec Terraform sur un environnement AWS (ECS, Aurora, Lambda, S3, SQS/SNS, EventBridge, Step Functions) Mettre en place et opérer les pipelines CI/CD via GitLab CI en appliquant les pratiques GitOps Assurer la conteneurisation des applications avec Docker. Garantir la qualité logicielle via SonarQube Déployer et opérer les outils de sécurité applicative (Checkmarx SAST/SCA/KICS, WIZ) et cloud (AWS Inspector, AWS Security Hub, Prowler, TestSSL) Mettre en œuvre l'observabilité et le monitoring des environnements via CloudWatch, Grafana et la création de Synthetics dans une approche SRE Comprendre les architectures applicatives backend (Python) et frontend (Angular, JS/TS) pour contextualiser les enjeux de sécurité Utiliser l'IA pour la génération, la revue et l'optimisation de code ainsi que pour l'automatisation des tests
Freelance

Mission freelance
Data Engineer Senior – Databricks / AWS / Airflow (Core Data Platform)

CHOURAK CONSULTING
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe Data stratégique au sein d’un acteur international, avec des enjeux forts autour de la performance financière et de la fiabilité des données RH & Finance . 🎯 Contexte de la mission Vous intégrerez une équipe Core Data Product composée d’un Product Manager et de plusieurs Data Engineers. La Data est au cœur des décisions stratégiques. L’équipe est actuellement engagée dans une revue globale de son architecture et de sa modélisation , avec un objectif clair : moderniser la plateforme et transformer la stack legacy vers les nouveaux standards Data Platform. ⚙️ Missions principales Concevoir, construire et maintenir des pipelines et infrastructures data robustes et performantes . Optimiser l’architecture et la modélisation des flux. Participer à la transformation vers les nouveaux standards de la Data Platform. Garantir la qualité, la fiabilité et la gouvernance des données (Finance & HR). Assurer un RUN de qualité selon le principe “You build it, you run it”. Promouvoir les bonnes pratiques : CI/CD, revue de code, qualité du code . Garantir la sécurité et la conformité des données (RGPD). Évoluer en environnement Agile au sein d’une équipe internationale (anglais quotidien).
Freelance

Mission freelance
DBA AWS / Administrateur de base de données

Tenth Revolution Group
Publiée le
Amazon DynamoDB
AWS Cloud
Mongodb

3 ans
190-650 €
Lille, Hauts-de-France
Dans le cadre de l’évolution de son positionnement cloud, notre client recherche un DBA orienté AWS avec une forte appétence pour le développement et l’automatisation. Le rôle s’inscrit dans une transformation où les activités DBA traditionnelles évoluent vers un scope plus large mêlant gestion des données, développement et innovation . À ce titre, vos missions seront les suivantes : Administrer, optimiser et maintenir les bases de données ( AWS RDS, DynamoDB, MongoDB ) Garantir la performance, la disponibilité et la sécurité des environnements data Développer des endpoints API en Python pour exposer et exploiter les données Automatiser l’infrastructure via des playbooks Terraform Participer à des POC autour de nouvelles solutions Cloud/Data Rédiger de la documentation technique et contribuer à la veille technologique
CDI

Offre d'emploi
Data Engineer Teradata et Big Data H/F

CONSORT GROUP
Publiée le
Big Data
Teradata

55k-62k €
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de ConsortIA , sont des acteurs de référence de la Data, du Développement Digital et de l'Ingénierie Média. En combinant ces expertises, nous concevons des systèmes d’information augmentés, intégrés, agiles et sécurisés, au service de la performance et de la transformation numérique de nos clients. Data Engineer Teradata et Big Data H/F C’est votre mission Vous êtes passionné·e par [XXX] ? Ce poste est fait pour vous. En tant que Data Engineer Teradata et Big Data , vous êtes responsable du [XXX] et [XXX] de notre écosystème : Côté build : Concevoir et développer des solutions DataMart / Datalab sur environnement Teradata Mettre en œuvre les chaînes ETL via BTEQ / TPT Développer des traitements de collecte, transformation et stockage de données sur plateforme Big Data Construire des agrégats et indicateurs (scores, datamarts) à destination des équipes Data Science Développer des pipelines de données sous environnements Spark / Hadoop / HDFS Participer à la modélisation et au design des solutions de données (bonnes pratiques Data Engineering) Industrialiser les traitements dans un contexte Unix / SQL / Teradata Utiliser les outils collaboratifs (Git, Jira, Confluence, MEGA) dans un cadre Agile Côté run : Assurer le support et la maintenance des chaînes de production Data Surveiller et optimiser les traitements batch (ordonnancement via Control-M ) Gérer les incidents de production sur les flux Teradata / Big Data Analyser et corriger les anomalies sur les traitements SQL / ETL Garantir la disponibilité et la performance des jobs data Participer à l’amélioration continue des pipelines (fiabilisation, optimisation) Assurer le support aux équipes Data Science sur les environnements de données Maintenir la documentation technique (Confluence, MEGA) Suivre les bonnes pratiques d’exploitation dans un contexte DevOps C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants. Vous aimez concevoir et industrialiser des pipelines de données robustes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Environnement Linux / Unix dans un contexte Agile et DevOps Maîtrise des technologies Data : Teradata, SQL, BTEQ, TPT Écosystème Big Data : Spark, Hadoop, HDFS, Python Outils d’exploitation et d’ordonnancement : Control-M Outils collaboratifs : Git, Jira, Confluence, MEGA Connaissance de solutions ETL / Data : Datastage Bonne compréhension des architectures de données et pipelines industrialisés C’est votre manière de faire équipe : Rigueur et sens de la qualité dans les traitements de données Esprit d’analyse et capacité de résolution de problèmes complexes Collaboration forte avec équipes Data, IT et métier Autonomie et sens des responsabilités en environnement de production Communication claire et esprit d’équipe Adaptabilité dans des environnements techniques évolutifs (DevOps / Big Data) Culture de l’amélioration continue et du delivery fiable C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris Contrat : CDI Télétravail : Hybride Salaire : De 55K € à 62K € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Data Governance Manager (Stewardship & Adoption)(H/F)

Freelance.com
Publiée le
Big Data

5 mois
360-440 €
Bordeaux, Nouvelle-Aquitaine
Objectif de la mission Structurer, déployer et faire adopter la gouvernance data au niveau opérationnel, en mettant en place une communauté de Data Stewards et en rapprochant les équipes data des métiers. 🧩 Ce que vous allez faire concrètement Vous intervenez dans un rôle transverse , orienté cadre, adoption et animation , et non comme Data Steward opérationnel. 🔹 Structuration de la gouvernance Définir et déployer le modèle de Data Stewardship (rôles, responsabilités, rituels) Clarifier les interactions entre Data Owners, Data Stewards, équipes data et techniques 🔹 Animation & adoption Créer et animer une communauté de Data Stewards Accompagner la conduite du changement Développer l’usage des outils de gouvernance (catalogue, documentation…) 🔹 Onboarding & outils Construire les kits, standards et supports pour les Data Stewards Accélérer la documentation des assets data 🔹 Alignement métier & data Organiser des ateliers avec les équipes métiers Identifier les irritants et besoins Structurer et prioriser un backlog transverse 🔹 Intégration dans les projets Intégrer la gouvernance dès les phases de cadrage (“governance by design”) Étendre la couverture du data catalog (y compris sur des sujets IA) ⚙️ En résumé C’est une mission de pilotage et d’animation de la gouvernance data , avec un fort enjeu d’ adoption, de structuration et d’impact métier , dans un environnement déjà outillé.
Offre premium
Freelance

Mission freelance
Ingénieur Cloud AWS - Data & IA

TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas

36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Freelance
CDI

Offre d'emploi
Développeur TypeScript H/F

OBJECTWARE
Publiée le
AWS Cloud
Gitlab
React

1 an
Nantes, Pays de la Loire
Nous recherchons un développeur Typescript H/F pour une mission à Nantes. Missions : Concevoir, développer et maintenir des fonctions serverless Développer en TypeScript et garantir la qualité via des tests (unitaires, intégration, end-to-end) Participer aux revues de code et à l’amélioration continue des pratiques de développement Contribuer à la conception technique et à la rédaction de la documentation associée Identifier, analyser et corriger les anomalies, y compris en environnement de production Veiller au respect des critères de qualité et de validation des livraisons Participer activement aux cérémonies agiles (daily, estimation, rétrospectives) Contribuer à la robustesse, à la sécurité et à la performance des applications

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2408 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous