Trouvez votre prochaine offre d’emploi ou de mission freelance Web service à Paris

Votre recherche renvoie 166 résultats.
Freelance

Mission freelance
Cloud Ops Engineer

Celexio
Publiée le
AWS Cloud
CI/CD
Datadog

3 mois
400-550 €
Paris, France
Présentation de la mission En tant que Cloud OPS Engineer Senior, vous rejoignez un groupe leader de la Tech Parisienne. Votre mission est au cœur de la stratégie Data : vous assurez la robustesse, l'évolution et la maintenance de l'infrastructure supportant les outils d'analyse de marché. Vous intervenez dans un contexte de passation fluide (binôme avec le titulaire sortant) pour garantir la continuité opérationnelle tout en apportant votre expertise sur les chantiers de modernisation. Responsabilités Architecture & Build : Construire et maintenir une infrastructure scalable pour supporter les flux de données critiques du groupe. Maintenance & Modernisation : Assurer le run de la stack actuelle tout en intervenant sur la stack legacy pour optimiser les performances. Hybridation Cloud : Piloter le transfert de services et le "debug" sur un reliquat d'infrastructure GCP (mission de "spéléologie" technique ponctuelle). Automatisation & Observabilité : Garantir la fluidité des déploiements et la visibilité de l'état de santé des services via des dashboards avancés.
Freelance
CDI

Offre d'emploi
Développeur Fullstack Python (50%) / ReactJS (50%)

VISIAN
Publiée le
AWS Cloud
FastAPI
Javascript

1 an
Paris, France
Objectif Développer des applications web complètes, du front-end au back-end, en garantissant une expérience utilisateur optimale. Responsabilités Développer des interfaces utilisateur (React, JavaScript/TypeScript). Concevoir et maintenir des API back-end (Python, FastAPI). Optimiser les performances des applications (caching, requêtes, etc.). Collaborer avec les équipes produit et design pour traduire les besoins métiers en solutions techniques. Participer à l'automatisation des tests (pytest, Cypress) et des déploiements (Docker, CI/CD).
CDI
Freelance

Offre d'emploi
Data Scientist / Expert IA (H/F) expérimenté – Paris – PhD

Cogniwave dynamics
Publiée le
Agent IA
Artificial neural network (ANN)
AWS Cloud

5 ans
Paris, France
Nous recherchons un(e) Data Scientist / Expert IA disposant d’un doctorat (PhD) en Machine Learning / NLP ou domaine proche, pour rejoindre nos équipes à Paris au sein de projets à forte valeur ajoutée en intelligence artificielle appliquée. Profil PHD EXPERIMENTE ayant plusieurs expériences profesionnelles concrètes CDI de préférence (ouvert aux freelance pour certaines missions) Projets sur Paris, luxembourg ou Belgique Votre rôle Concevoir, développer et industrialiser des solutions d’IA (NLP, LLM, IA générative) au service de cas d’usage métiers concrets. Participer à la définition des architectures data/IA et aux choix technologiques associés (cloud, outils, librairies). Contribuer à la mise en production des modèles (qualité, performance, robustesse) en lien étroit avec les équipes produit et métier. Intervenir sur tout le cycle de vie des projets : cadrage, POC, expérimentation, déploiement, suivi et amélioration continue. Ce que nous offrons Des projets IA de pointe, avec un fort niveau d’autonomie et de responsabilité. Un environnement stimulant, à l’interface entre R&D, innovation et enjeux business. Un cadre parisien dynamique, au sein d’équipes passionnées par l’intelligence artificielle et son impact concret. 🗼
Freelance

Mission freelance
Administrateur Bases de Données PostgreSQL Expert (Infra / Cloud)

Gentis Recruitment SAS
Publiée le
AWS Cloud
Azure
DevOps

12 mois
Paris, France
Contexte de la mission Une grande organisation internationale opérant dans un environnement critique et fortement digitalisé investit massivement dans la modernisation de son système d’information, avec un accent particulier sur l’infrastructure et le cloud first (Azure / AWS). Dans le cadre d’un remplacement et d’un renforcement des équipes, elle recherche un Administrateur de Bases de Données PostgreSQL Expert afin d’intervenir au sein d’une équipe DBA transverse, en lien étroit avec les équipes infrastructure, plateformes et développement applicatif. L’environnement est hybride : On-Premise, Cloud Azure et Cloud AWS, avec des exigences élevées en disponibilité, sécurité et automatisation. 2. Objectifs de la prestation Le consultant interviendra sur l’ensemble du cycle de vie des bases de données PostgreSQL : Architecture et design des solutions bases de données Build et mise en production Maintien en condition opérationnelle (MCO) Optimisation des performances Sécurité, supervision et résilience des environnements Il jouera un rôle de référent PostgreSQL et contribuera activement à la démarche DevOps DBA . 3. Périmètre fonctionnel et technique3.1 Administration & exploitation Administration N3 des environnements PostgreSQL (IaaS et PaaS) Installation, configuration, sécurisation et mises à jour PostgreSQL Sauvegarde, restauration et PRA (pg_dump, pg_basebackup, pgBackRest…) Optimisation des performances (requêtes, index, plans d’exécution) Gestion des extensions PostgreSQL (PostGIS, pg_stat_statements, etc.) Supervision et monitoring des bases 3.2 Automatisation & Cloud Automatisation des déploiements et opérations via Ansible, Git, scripting Intégration avec les outils cloud : Infrastructure as Code (Bicep) Supervision et logs (Azure Monitor, Log Analytics) Contribution à la mise en place de dashboards techniques (Grafana) 3.3 Collaboration & support Support technique de niveau avancé Assistance aux équipes de développement et d’infrastructure Rédaction de documentation technique (HLD / LLD, procédures) Participation aux projets en méthodologie agile Interface technique avec des équipes internationales 4. Environnement technique PostgreSQL (production critique) Cloud : Azure & AWS OS : Linux / Unix (Red Hat, Debian…) Infrastructure virtualisée Supervision : Grafana, Prometheus, Zabbix (ou équivalent) Automatisation & DevOps : Ansible, Git, scripting Bash / Python / PowerShell 5. Compétences requises5.1 Compétences techniques clés PostgreSQL expert (plus de 10 ans d’expérience attendue) Administration avancée PostgreSQL en environnement cloud Azure PostgreSQL Flexible Server AWS RDS PostgreSQL Sécurité des bases de données (rôles, chiffrement, audit) Automatisation et Infrastructure as Code Supervision et observabilité 5.2 Certifications Microsoft Certified: Azure Database Administrator Associate (DP-300) – obligatoire 5.3 Compétences générales Excellente capacité d’analyse et de résolution de problèmes complexes Forte rigueur technique et documentaire Capacité de synthèse et de communication Gestion des priorités et résistance au stress Anglais professionnel niveau B2 minimum (oral et écrit) 6. Modalités de la mission Démarrage souhaité : 16/03/2026 Fin de mission initiale : 12/03/2027 Durée : 1 an, renouvelable jusqu’à 3 ans maximum Temps de travail : Temps plein Astreintes : 1 semaine sur 2 ou 3, après période d’adaptation Télétravail : Tous les lundis et mardis Un vendredi sur deux 7. Localisation France : région parisienne (site principal) Belgique : déplacements réguliers à prévoir (Bruxelles) 8. Livrables attendus Time tracking mensuel Rapports d’activité (hebdomadaire / mensuel) Tableaux de bord techniques Documentation d’architecture (HLD / LLD) Procédures d’exploitation Spécifications techniques Documentation PRA et sécurité Contributions aux référentiels techniques internes
Freelance

Mission freelance
Chief Data Officer de transition - Mission longue - Grand groupe Retail

KatchMe Consulting
Publiée le
AWS Cloud
Databricks

12 mois
900-1 200 €
Paris, France
Nous recherchons un CDO (Chief Data Officer) de transition afin d'entamer une transformation Data pour notre client, un acteur du Retail de premier plan. Contexte et enjeux: Dans un contexte de transformation stratégique, l’entreprise souhaite faire de la Data un levier central de performance et de décision. L’enjeu est triple : Mettre en place une approche Data Mesh pour responsabiliser les métiers sur leurs données Rendre les équipes métiers autonomes dans l’usage et la valorisation de la data Moderniser l’écosystème Data via une migration vers AWS couplé à une plateforme Databrick Vos responsabilités clés seront notamment: Définir la vision et la roadmap Data alignées avec la stratégie globale de l’entreprise Déployer une organisation Data Mesh (Data Products, ownership métiers, gouvernance fédérée) Accompagner les métiers vers une culture data-driven et le self-service analytique Piloter la construction et la migration de la plateforme Data sur AWS / Databricks Garantir la qualité, la sécurité, la conformité et la maîtrise des coûts de la Data Structurer, recruter et animer les équipes Data & Data Platform (une 100aine de personnes) en lien étroit avec le DSI Stakeholders management: vous serez le référent ComEx Data en lien avec les VP/C-Level de l'entreprise Si vous vous retrouvez dans cette mission, envoyez-nous votre CV, nous reviendrons vers vous sous 24h
Freelance

Mission freelance
Ingénieur DevOps / SRE – Cloud & Kubernetes (AWS/GCP)

JobiStart
Publiée le
DevOps

3 ans
400-550 €
Paris, France
L’Environnement de Travail & Le Contexte Vous intégrez une équipe technique de haut niveau au sein d'une structure établie ("Cadre Pro") pour une mission de longue durée . Vous évoluerez dans un contexte Multi-Cloud (AWS & GCP) exigeant, où la performance, la sécurité et la disponibilité sont critiques. Organisation : Travail en mode hybride équilibré ( 2 jours de présentiel / 3 jours de télétravail). Atmosphère : Environnement technique riche, favorisant l'autonomie et l'expertise. 🚀 Votre Mission : Fiabilité, Scalabilité & Automatisation En tant que SRE / DevOps, votre rôle est de garantir la robustesse de l'infrastructure et l'efficacité de la chaîne de déploiement (CI/CD). Infrastructure & Orchestration : Gestion et optimisation des clusters Kubernetes . Mise en place de stratégies de scaling avancé ( HPA - Horizontal Pod Autoscaling) pour absorber les pics de charge. Administration d'environnements Cloud hybrides ( AWS / GCP ). Déploiement & Automatisation (CI/CD) : Industrialisation des pipelines de déploiement via GitHub Actions . Implémentation de l'approche GitOps avec ArgoCD . Automatisation et scripting (notamment en Python ). Performance & Sécurité : Optimisation des performances web et gestion des CDN . Intégration des normes de Sécurité (DevSecOps) dès la conception. Garantie des niveaux de service ( SLA ) et monitoring de la production. Support Applicatif : Accompagnement des équipes de développement sur l'écosystème applicatif (stack incluant PHP ).
Freelance

Mission freelance
Architecte Data

Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
Freelance

Mission freelance
Data Engineer AWS / Snowflake

Gentis Recruitment SAS
Publiée le
AWS Cloud
CI/CD
Snowflake

12 mois
Paris, France
Contexte Dans le cadre du renforcement de ses plateformes data, un grand groupe industriel recherche un Data Engineer senior pour intervenir sur des sujets d’industrialisation, de fiabilisation et de montée en charge de ses pipelines data. Objectifs de la mission Concevoir, développer et maintenir des pipelines de données robustes et scalables Industrialiser les traitements data dans un environnement cloud AWS Exploiter et optimiser une plateforme Snowflake Mettre en place et améliorer les chaînes CI/CD liées aux usages data Garantir la qualité, la performance et la sécurité des flux de données Environnement technique (cœur) Cloud : AWS Data Warehouse : Snowflake Langages : Python, SQL Orchestration / ingestion : Airflow, services AWS (Glue, Lambda, S3, etc.) CI/CD : Git, pipelines automatisés Enjeux forts d’industrialisation et de bonnes pratiques DataOps Profil recherché Data Engineer confirmé / senior Expérience significative sur AWS et Snowflake À l’aise avec les environnements industrialisés et les contraintes de production Capacité à travailler avec des équipes data, IT et métiers
Freelance
CDI

Offre d'emploi
Manager Infrastructure & Cloud

KLETA
Publiée le
AWS Cloud
Infrastructure
Management

1 an
Paris, France
Objectifs du poste Manager et animer une équipe d’environ 20 collaborateurs (infra, cloud, exploitation). Créer de la cohésion entre des équipes historiquement cloisonnées. Donner un cadre clair, des priorités partagées et une feuille de route lisible. Garantir la continuité de service, la qualité d’exploitation et la robustesse des plateformes. Accompagner les choix structurants d’évolution des infrastructures. Management & leadership Management direct et indirect d’équipes Infrastructure, Cloud et Opérations . Mise en place d’un management bienveillant, équitable et exigeant . Désamorçage des tensions, gestion des désaccords techniques et humains. Responsabilités techniques Supervision des environnements : Cloud public (AWS), Infrastructures virtualisées on-premise (VMware et solutions alternatives), Environnements conteneurisés (Kubernetes), Plateformes type cloud privé (OpenStack, Proxmox ou équivalent). Contribution aux choix d’architecture et d’orientation technologique. Arbitrage entre solutions techniques en tenant compte : des contraintes budgétaires, des risques opérationnels, de la maturité des équipes. Supervision des sujets transverses : Observabilité (monitoring, logs, alerting),
Freelance

Mission freelance
Data Engineer AWS / GenAI

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Freelance
CDI

Offre d'emploi
Devops/SRE AWS

VISIAN
Publiée le
Artifactory
AWS Cloud
Docker

2 ans
40k-66k €
400-650 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Devops/SRE AWS. Objectif de la mission : Assurer la fiabilité, la disponibilité et la performance des infrastructures et services. le Devops/SRE. est capable de prendre en charge des tâches de contribution planifiées autour de son domaine de responsabilité, mais aussi d’être sollicité sur des problèmes de production nécessitant des investigations approfondies sur des domaines transverses. Une bonne connaissance du produit, de l’infrastructure et du développement, ainsi qu’une grande qualité d’autonomie sont des qualités majeures de cet ingénieur. Description des activités possibles : - Mise à disposition et maintenance des environnements de développement et de qualité. - Design et implémentation des chaînes de CI / CD et des workflows de développement, à destination des environnements non-prod (dev / QA) - Conception et maîtrise du processus de release de l’application. - Mise en place des outils d’observabilité sur le produit. - Pilotage de la rédaction des documents d’architecture et d’exploitation. - Contribution à la gestion des incidents et au support niveau 3 (escalation). - Revue des spécifications produit et technique sous le prisme du domaine de responsabilité du poste.
Freelance

Mission freelance
QA Auto Playwright Selenium Cypress

Byrongroup
Publiée le
AWS Cloud
Cypress
Docker

6 mois
400-600 €
Paris, France
• Créer, maintenir et optimiser les tests automatisés via le framework Playwright / TypeScript • Exploiter les assistants IA intégrés (génération de tests, assistance au code via IDE Cursor et serveur MCP) • Maintenir et enrichir les suites de tests en respectant l’architecture Page Object Model (POM) • Implémenter de nouveaux scénarios basés sur des patterns data-driven • Exécuter les tests sur environnements multiples (local, BrowserStack, runners AWS) • Améliorer continuellement les pipelines CI/CD (GitHub Actions, Docker, AWS) • Collaborer avec les Analystes QA et Développeurs pour étendre la couverture automatisée • Utiliser Jira et Xray pour la gestion, l’exécution et le reporting des tests • Garantir le respect des standards de code et participer aux revues de code
Freelance

Mission freelance
Développeur Java AWS H/F

ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
Java
Kotlin

6 mois
400-500 €
Paris, France
Contexte L'entité a besoin d’un développeur expérimenté venant compléter l’équipe agile. Cette équipe conçoit et développe en itérations de 2 semaines sa solution, elle pilote sa mise en service et assure sa disponibilité opérationnelle pour ses clients. Cette solution prend la forme d'un composant logiciel, développé sur un socle Java moderne (Java 21, Kotlin, Spring Boot, JPA / Hibernate), exposé au travers de web services ou d'une librairie intégrée par nos clients sur linux ou android. Aucun composante front n'est à prévoir, une spécialité back est attendue. Description Dans un contexte d'équipe agile (et d'applications à fort trafic), le développeur Backend conçoit, développe, déploie et maintient les fonctionnalités afin de répondre aux exigences fonctionnelles exprimées dans le cadre de la conception de solutions ou d'applications Livrables • Développer des solutions backend de qualité : étude, conception et réalisation des projets de build, en collaboration avec l’équipe • Mise en place de tests automatisés (TU et TI) • Dans le cadre des principes devops, gestion de l’usine logicielle, de l’observabilité, de la livraison et du run des solutions • Analyse et corrections d’incidents • Evolutions techniques • Participation active aux instances de l’équipe et à la vie de l’équipe, dans un cadre agile, attitude volontaire et proactive • Au sein d’un écosystème de projets variés, être force de proposition et au cœur de l’amélioration continue
Freelance

Mission freelance
Data Platform Engineer

Cherry Pick
Publiée le
AWS Cloud
Python

12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Freelance

Mission freelance
Développeur java react aws

Cherry Pick
Publiée le
AWS Cloud
IA
Java

12 mois
500-550 €
Paris, France
Tâches principales : • Se positionner comme un coach des équipes tech en place en apportant une expertise en GenAI • Permettre la montée en compétence des équipes DSI en intégrant des outils d’IA (Copilot, Claude Code) pour accélérer le développement et la documentation • Développer et maintenir des applications performantes (Java/Spring Boot, Angular/React, Node.js, etc.) en intégrant des assistants IA (Copilot, Claude Code) • Automatiser les tâches répétitives (tests, CI/CD, monitoring) pour gagner en productivité • Travailler sur des architectures modernes : APIs, Cloud PaaS/IaaS (AWS, Terraform) • Garantir la qualité et la sécurité des développements en s’assurant que les projets pilotes respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI • Collaborer étroitement avec les équipes produit, design et architecture • Coacher des équipes qui créent des solutions en utilisant l’IA comme assistant de la conception technique au monitoring en production.
Freelance
CDI

Offre d'emploi
Data Scientist

VISIAN
Publiée le
AWS Cloud
Deep Learning
FastAPI

1 an
40k-70k €
400-700 €
Paris, France
Contexte L'équipe du client travaille sur le développement des algorithmes de détection d'anomalie sur des pièces industrielles. L'équipe est composée d'une dizaine de personnes (Data scientist, deep learning ingénieur, ML engénieur) et travaille sur une dizaine de projet par an pour développer des solutions d'aide au contrôle industriel. Les données traitées sont des images sous des formes variées (ultrasons, rayons X, tomographie, images visibles, vidéo, etc...) Pour produire les détecteurs (ou algorithme), l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. une stack d'outils spécifiques à l'équipe contrôle non destructif, développée par l'équipe CND elle-même. Pour faire face à une augmentation de la charge, nous avons besoin de renforcer l'équipe pour contribuer à plusieurs projets CND. Soft skills Votre esprit est rigoureux, créatif et méticuleux. Vous avez un bon esprit critique, ainsi que de bonnes capacités d'analyse des résultats et de prise de recul. Vous avez une bonne capacité à travailler en équipe, et de bonnes compétences en communication. Vous êtes pragmatique, et orienté résultat.
166 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous