Trouvez votre prochaine offre d’emploi ou de mission freelance Web service

Votre recherche renvoie 491 résultats.
Freelance
CDD

Offre d'emploi
Ingénieur IA Générative / MLOps (H/F)

SMARTPOINT
Publiée le
AWS Cloud
Docker
Kubernetes

6 mois
50k-60k €
470-500 €
Île-de-France, France
Dans le cadre du développement de ses capacités en Intelligence Artificielle , notre client recherche un Ingénieur IA Générative / MLOps . Vous interviendrez sur l’ensemble du cycle de vie des solutions IA, de l’expérimentation à la mise en production, avec un focus sur les architectures GenAI (RAG, agents, fine-tuning) . Vos missions Implémenter et déployer des modèles d’IA (Machine Learning & IA Générative) Industrialiser les solutions via des pratiques MLOps Mettre en place le monitoring, la supervision et la maintenance (MCO) des modèles Concevoir des pipelines de données et d’ingestion Optimiser les performances (coûts, temps de calcul, scalabilité) Évaluer des Proof of Concept (PoC) et recommander les meilleures architectures Mettre en œuvre des solutions RAG (Retrieval-Augmented Generation) Travailler sur des approches fine-tuning et prompt engineering Accompagner les équipes sur les bonnes pratiques IA et industrialisation Livrables attendus Études et cadrages de cas d’usage (4 à 6 par an) Développement de pipelines d’ingestion (15 à 20 par an) Déploiement de modèles en production (15 à 20 par an) Maintenance et optimisation des solutions IA (3 à 5 par an)
Freelance

Mission freelance
Senior Python Engineers orientés Data & Distributed Systems

Comet
Publiée le
AWS Cloud
Numpy
Pandas

6 mois
400-650 €
Paris, France
Bonjour à tous, notamment aux Senior Python Engineers orientés Data & Distributed Systems 🐍☁️ (AWS / Spark / Ray / Pandas / Performance) ⚠️ Seniorité de 8 ans minimum 🔎 Je cherche un Senior Software Engineer Python pour rejoindre un programme stratégique au sein d’un grand acteur de la finance quantitative, autour de la valorisation de données financières massives (tick data L3). Dans ce contexte très exigeant, l’objectif est de rendre exploitables des datasets ultra-volumineux pour des chercheurs, en construisant des solutions de feature engineering distribuées tout en conservant une expérience utilisateur simple type pandas. 💻 Ce que tu vas faire : - Traduire des workflows Python/pandas en traitements distribués (Spark, Ray…) - Optimiser des traitements sur des volumes massifs de données (performance, scalabilité) - Concevoir des abstractions simples pour les data scientists (UX orientée chercheurs) - Participer aux choix d’architecture (Spark / Ray / Iceberg…) - Travailler sur des datasets complexes (données temporelles, dépendances, déséquilibres) - Collaborer étroitement avec des équipes ML Platform et des chercheurs quant - Contribuer à une plateforme data scalable et industrialisée sur AWS 🎯 Stack & environnement : Python (expert) / Pandas / NumPy / Spark / Ray / AWS (S3, EMR, SageMaker) / Iceberg / Data Lake / Feature Engineering / HPC (bonus) / Kubernetes (EKS en réflexion) 📍 Mission : Paris 💰 TJM : Selon profil 📅 Démarrage : ASAP
Freelance

Mission freelance
[SCH] Administrateur Snowflake – AWS / Terraform / DataOps - 1415

ISUPPLIER
Publiée le

10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre d’un projet stratégique de migration Oracle Exadata vers Snowflake, notre client recherche un Administrateur Snowflake afin de participer à la construction et à la sécurisation de la plateforme cible. L’environnement technique repose sur Snowflake hébergé sur AWS, avec des composants comme PrivateLink, Direct Connect, dbt, Airflow et Terraform. Le consultant interviendra en co-construction avec le pôle architecture pour définir les fondations de la plateforme, concevoir l’architecture cible et garantir la performance, la sécurité et la maîtrise des coûts dans une logique NextGen. Missions : -Participer au design et au build des fondations de la plateforme Snowflake -Définir le sizing et l’isolation des workloads -Mettre en place la sécurité cible : RBAC, gestion des accès, authentification -Créer et maintenir les socles Infrastructure as Code avec Terraform -Administrer la plateforme Snowflake au quotidien : rôles, utilisateurs, policies, comptes techniques -Gérer les Network Policies et les intégrations externes -Contribuer aux revues d’architecture et à la définition de l’architecture cible -Optimiser les performances, la fiabilité et les coûts de la plateforme -Assurer le monitoring, le tuning et le troubleshooting avancé -Participer aux pratiques DataOps / CI/CD autour de Snowflake, dbt et Airflow -Mettre en place des automatisations via SQL, Python, Tasks & Streams -Suivre les indicateurs de consommation et contribuer à la démarche FinOps Profil attendu : -Expertise avancée sur Snowflake (architecture, Virtual Warehouses, RBAC, performance) -Bonne maîtrise des environnements AWS (réseau, PrivateLink, Direct Connect) -Très bonne maîtrise de Terraform pour l’IaC Snowflake / AWS -Expérience en DataOps / CI-CD / pipelines de déploiement -Bonne connaissance de dbt et Airflow -Maîtrise des problématiques de sécurité avancée (Key-Pair, Network Policies, intégrations externes) -Capacité à intervenir sur l’optimisation SQL et le troubleshooting de requêtes -Compétences en Python / SQL pour l’automatisation -Sensibilité aux enjeux FinOps, monitoring et optimisation de coûts -Capacité à travailler en collaboration avec les équipes architecture et data platform
CDI

Offre d'emploi
DEVOPS

Peppermint Company
Publiée le
AWS Cloud
Bash
ELK

Sophia Antipolis, Provence-Alpes-Côte d'Azur
Soutien opérationnel et technique Assurez la stabilité et la fiabilité des applications fonctionnant sur AWS (emplois EMR, charges de travail EKS, Redshift, Glue). Maintenir et dépanner les processus Jenkins, les pipelines CI/CD, les outils de surveillance, d'alertes et de visualisation (services AWS, ELK). Surveillez l'activité de la plateforme, l'utilisation du système et la consommation des coûts. Surveillez l'évolution de la charge de code et l'activité d'intégration Génie logiciel et outillages Refactoriser les scripts Bash en outils Python maintenables. Améliorer la discipline de l'ingénierie : tests, gestion des versions, documentation, structure du code. Soutenir les équipes dans l'adoption de pratiques d'ingénierie logicielle plus solides. Livrables de migration Migrez les pipelines Jenkins vers un nouvel orchestrateur. Prendre en charge la migration des données vers Azure et AWS Amadeus Datamesh. Adapter les services de plateforme existants et les composants applicatifs au nouvel environnement. Contribuer à des normes unifiées CI/CD entre les équipes ATI. Une certaine compréhension des concepts du Big Data et de la gestion du cycle de vie des données tels que les partitions, l'évolution des schémas, les contrôles de qualité des données et l'optimisation de base des coûts/performances est appréciée.
Freelance
CDI

Offre d'emploi
Ingénieur Plateforme Cloud / Disaster Recovery - AWS Certified Solutions Architect – Professional

CELAD
Publiée le
AWS Cloud
Terraform

1 an
70k-85k €
600-700 €
Paris, France
Contexte de la mission Dans le cadre du renforcement de la résilience d’une plateforme cloud stratégique, nous recherchons plusieurs Ingénieurs Plateforme Cloud pour concevoir et déployer une solution de Disaster Recovery de type Warm Pilot sur AWS. Vous interviendrez sur un environnement à forte criticité, avec des exigences élevées en matière de disponibilité, sécurité, automatisation et excellence opérationnelle . L’objectif : construire une capacité de reprise robuste, testable et industrialisée, au cœur de la plateforme. Vos missions Vous serez au centre de la stratégie de continuité d’activité et interviendrez sur des sujets à fort impact : Analyser et challenger l’architecture DR existante (failover, failback, réplication, orchestration) Concevoir et mettre en œuvre une solution Warm Pilot adaptée aux workloads critiques Industrialiser les déploiements via Infrastructure as Code (Terraform / Terragrunt) et GitOps (ArgoCD) Automatiser les mécanismes de reprise (bascule, synchronisation, validation) Définir les procédures opérationnelles (runbooks, tests DR, scénarios de reprise) Identifier les risques techniques : dépendances, points de défaillance, limites opérationnelles Collaborer avec les équipes plateforme, sécurité et applicatives pour garantir la cohérence globale
Freelance
CDI

Offre d'emploi
Data Engineer AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Développeur Python / AWS / PostgreSQL / Kafka (h/f)

emagine Consulting SARL
Publiée le

1 mois
550-650 €
92400, Courbevoie, Île-de-France
Introduction & Résumé Nous recherchons un Développeur Python expérimenté avec une expertise en PostgreSQL et Kafka. Le candidat idéal devra posséder un minimum de 10 ans d'expérience en développement logiciel, avec des compétences avérées en gestion technique et une expérience dans des environnements similaires. L'accent sera mis sur le développement de solutions robustes et performantes pour des secteurs tels que la finance de marché, le trading de matières premières ou l'énergie. Principales Responsabilités Développer et maintenir des applications logicielles performantes. Assurer la conception et l’optimisation des bases de données PostgreSQL. Élaborer des architectures logicielles solides basées sur des technologies modernes. Implémenter des systèmes orientés événements et gérer le flux de données. Développer des API et des pipelines de données optimisés. Participer à l’évolution et à l’amélioration continue des processus Agile. Assurer le suivi du cycle de vie du développement logiciel. Exigences Clés 10 ans d’expérience en développement logiciel. Expérience avancée en développement Python (6+ ans). Maîtrise de PostgreSQL et gestion des performances. Compréhension des architectures logicielles modernes. Expérience avec des systèmes de messaging et de streaming comme Kafka. Compétences en mise en œuvre d’API et de pipelines de données. Connaissance des méthodologies Agile. Pratique du cycle de vie du développement avec GitHub. Atouts Complémentaires Expérience dans le secteur de la finance de marché ou de l’énergie. Connaissance des systèmes RabbitMQ. Autres Détails Ce poste est basé dans un environnement dynamique et collaboratif. Les candidats doivent être disposés à participer à des projets intéressants allant du développement à la mise en production.
Freelance

Mission freelance
Product Owner (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Backlog management
Confluence

2 ans
480-580 €
Bordeaux, Nouvelle-Aquitaine
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Product Owner (H/F) à Bordeaux, France. Contexte : Définir et piloter la stratégie de son produit en lien avec les besoins utilisateurs, les enjeux métier et les capacités de l’équipe. Les missions attendues par le Product Owner (H/F) : 1. Recueil et formalisation des besoins Recueil et formalisation des besoins Animer des ateliers de recueil des besoins métiers (ateliers de cadrage, ateliers utilisateurs, interviews, etc.). Traduire les besoins utilisateurs et métiers en User Stories, Features et Épics clairs, compréhensibles et actionnables. Prioriser les demandes selon leur valeur métier, complexité technique et dépendances. 2. Gestion du Product Backlog Maintenir un backlog produit à jour, clair, hiérarchisé et aligné sur les objectifs stratégiques et tactiques. Arbitrer les priorités avec les parties prenantes Participer, et dans certains cas préparer et animer les cérémonies agiles. 3. Pilotage fonctionnel et validation Valider les livraisons à l’issue de chaque cycle (recette, démo utilisateurs, feedbacks etc.). Définir et piloter la stratégie de tests fonctionnels (End to End). Assurer la conformité du produit livré avec les exigences métier. 4. Communication et coordination Assurer une interface fluide entre les profils métiers et techniques de l’équipe produit Collaborer avec la discipline Méthodes concernant les bonnes pratiques sur la gestion produit Communiquer régulièrement l’état d’avancement, les choix de priorisation, les risques et alertes vers les acteurs du pilotage de l’équipe produit (Pilote Produit, Pilote De Delivery) 5. Suivi de la valeur & amélioration continue Contribuer au suivi et à l’analyse des KPIs de performance produit (ex. : taux d’adoption, NPS, taux de satisfaction, etc.). Identifier les leviers d'amélioration continue sur les fonctionnalités, l’expérience utilisateur ou les processus agiles. Capitaliser sur les retours de la discipline Méthodes
Freelance

Mission freelance
Generative AI Engineer (H/F) 92

Mindquest
Publiée le
Amazon S3
AWS Cloud
Python

3 mois
La Défense, Île-de-France
Développement IA / Computer Vision: - Concevoir et développer de nouveaux cas d’usage en vision par ordinateur : - Détection de corrosion - Segmentation 2D/3D - Classification d’anomalies - Améliorer les performances et la robustesse des modèles existants MLOps & Industrialisation: - Concevoir et déployer une infrastructure MLOps complète sur AWS - Structurer et automatiser les pipelines de Machine Learning : - Entraînement - Validation - Versioning - Déploiement - Mettre en place le suivi des expérimentations et la gestion des modèles - Définir et appliquer les bonnes pratiques d’industrialisation : - CI/CD - Monitoring des modèles - Gestion des versions Gestion des données: - Gérer et structurer les datasets d’images 2D/3D issus des drones - Contribuer à l’amélioration continue de la qualité des données Collaboration transverse: - Travailler en étroite collaboration avec les équipes techniques et métiers - Assurer la cohérence technique et fonctionnelle des solutions développées
Freelance

Mission freelance
POT9074 - Un Concepteur et développeur Python, Angular, AWS Sur Bordeaux

Almatek
Publiée le
Python

6 mois
Bordeaux, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients ,Un Concepteur et développeur Python, Angular, AWS Sur Bordeaux Description détaillée : Pour un client majeur ,expertise autour des solutions Python, Angular, AWS pour le cadrage, la conception, la réalisation, l'intégration, et l'exploitation d'applications dans un environnement DevOps et Agile. Il est également attendu l'accompagnement de la squad pour les enjeux techniques et d'architecture des applications. Compétences techniques Python - Expert - Impératif Angular - Expert - Impératif AWS - Expert - Impératif Indus DevOps & IA - Expert - Impératif Le livrable est: Expertise, Conception, Réalisation, Accompagnement Définition du profil: À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. En générale, nécessite un minimum de + de 10 ans d'expérience
Freelance

Mission freelance
Expert Cloud Data/IA AWS/GCP (H/F) - Freelance

GROUPE ARTEMYS
Publiée le

1 mois
75010, Paris, Île-de-France
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Votre mission (si vous l’acceptez) : Projet 1 – Run & évolution plateforme IA générative (AWS) Reprendre en main une plateforme existante Assurer son maintien en conditions opérationnelles (MCO) Contribuer à son amélioration continue Projet 2 – Migration & adoption GCP Définir une architecture cible Cloud GCP Réaliser des POC Industrialiser et accompagner les équipes Missions principales 1. Prise en main & transfert de connaissances Organisation et participation aux ateliers Cartographie documentaire et identification des gaps Validation de l’autonomie technique 2. Run / MCO (AWS) Traitement des incidents, demandes et évolutions Suivi des opérations et documentation Application des pratiques FinOps (optimisation des coûts) 3. Amélioration continue Contribution aux choix techniques Veille technologique proactive (AWS) 4. Conseil & architecture (GCP) Benchmark des solutions Cloud Définition d’architecture cible Construction de la stratégie de migration hybride (On-Prem → GCP) 5. Expérimentation & industrialisation Réalisation de POC Déploiement industrialisé (Terraform, CI/CD, monitoring) 6. Acculturation & formation Création de démonstrateurs Animation d’ateliers de montée en compétences Le terrain de jeu ? AWS (RUN + IA générative) Compute : Lambda, ECS, Fargate IA/Data : SageMaker, OpenSearch, Comprehend, Rekognition Sécurité : IAM, KMS, Secrets Manager Data : S3, Neptune Observabilité : CloudWatch, CloudTrail GCP (BUILD & transformation) Data : BigQuery, Dataflow, Dataproc IA : Vertex AI, AutoML Compute : GKE, Cloud Run, Functions DevOps : Terraform, CI/CD Sécurité : IAM, KMS, Security Command Center Compétences transverses Architecture Cloud hybride (On-Prem / Cloud) Design scalable & sécurisé Industrialisation MLOps / DataOps Infrastructure as Code (Terraform) FinOps Analyse et optimisation des coûts Cloud Pilotage de la consommation (notamment IA) Le profil que nous recherchons : Vous avez 5 à 10 ans d’expérience minimum dans un environnement challengeant Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions de rémunération : Statut : Indépendant / Freelance TJM : Entre 500€ et 650€ (Selon votre expertise) 2 jours sur site à Colombes / semaine Démarrage Juin 2026 Mission de 6 mois renouvelable Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
POT9054 - Un Consultant MES - DS APRISO

Almatek
Publiée le
AWS Cloud

6 mois
Le Havre, Normandie
Almatek recherche pour l'un de ses client, un Consultant MES - DS APRISO sur Le Havre. Contexte & Objectifs de la mission Le consultant interviendra sur : L’analyse de l’existant et des besoins métiers (production, qualité, maintenance, logistique) Le cadrage fonctionnel MES et le suivi métier L’accompagnement des métiers dans la projection des usages d’une ligne de production digitalisée La réduction des usages Excel et des saisies manuelles Le transfert de compétences vers les équipes internes Périmètre fonctionnel (exemples) Digitalisation de processus aujourd’hui manuels / Excel : Relevés de cotes produit et données process Rapports qualité (LICA, LIVA, PRID, essais) Gammes de retouche et récupération Calculs conditionnels de conformité produit Standardisation des flux de données : Conformité produit Traçabilité long terme Archivage client Analyses statistiques de process (SPC, Once SPC) Autres processus digitalisés : Maintenance niveau 1 & 2 réalisée par le producteur Prise et fin de poste Interaction étroite avec l’exécution des Ordres de Fabrication dans le MES Environnement technique MES : DS Apriso MCS : PTC ThingWorx ERP : SAP ECC6 EHP7 SP5 PLM : 3DEXPERIENCE Data Platform : AWS (plateforme interne) Middleware : MuleSoft Compétences attendues Techniques & fonctionnelles Architecture SI industriels (OT / IT) Projets MES intégrés ERP / PLM / MCS / SCADA Environnements industriels temps réel, qualité, traçabilité Soft skills Animation d’ateliers métiers Capacité de synthèse et de restitution Suivi de projet Force de proposition et adaptabilité Livrables attendus Spécifications fonctionnelles (anglais) Plans de tests (qualification, pré?prod, E2E) Plans d’interfaçage Documentation de formation & modes opératoires PCA Suivi des tickets et ajustements fonctionnels Feuille de route projet et recommandations data
Freelance
CDI

Offre d'emploi
Data Engineer

UCASE CONSULTING
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Maintien en condition opérationnelle (MCO)

1 an
40k-50k €
450-550 €
Paris, France
Dans le cadre du renforcement d’une équipe data, nous recherchons pour un de nos clients dans le secteur de la mobilité un Data Engineer pour intervenir sur une mission longue, avec un rôle clé dans le développement et le maintien des pipelines de données. Vous intégrerez un pôle Data Studio & OPS , en charge du développement, de l’exploitation et de la fiabilité des solutions data, dans un environnement orienté production et performance. 🧩 Vos missions Développer et maintenir des pipelines de données (ETL / ELT) Manipuler et transformer des données (SQL / volumétrie importante) Assurer la mise en production et le maintien en conditions opérationnelles (MCO) Gérer le support technique N2 / N3 (incidents, monitoring, résolution) Participer à l’amélioration continue des traitements data Travailler en lien avec les équipes projets et techniques
Freelance
CDI

Offre d'emploi
Architect Data

The Yellow Office
Publiée le
Architecture
AWS Cloud
Microsoft SQL Server

6 mois
Toulouse, Occitanie
Data Architect | AWS / Snowflake | Toulouse | Freelance Nous recherchons un Data Architect expérimenté pour intervenir sur des sujets d’architecture, de migration et de structuration de plateformes data dans un environnement international. Informations mission • Localisation : Toulouse - 2 jours de TT • Contrat : Freelance • Démarrage : ASAP • Durée : Mission longue • TJM : Selon expérience • Expérience : 10 à 15 ans minimum • Anglais courant requis Votre rôle • Concevoir et faire évoluer l’architecture data globale • Définir les flux d’ingestion, de transformation et de stockage • Structurer les modèles de données et les usages analytiques • Accompagner les projets de migration (legacy vers cloud) • Garantir la performance, la sécurité et la gouvernance des données • Challenger les choix techniques et améliorer l’existant Environnement technique • AWS (S3, Lambda, RDS, Redshift…) • Snowflake • SQL / modélisation de données • Python • Stack BI (Power BI, SQL Server, SSIS, SSAS…) Profil recherché • Forte expérience en architecture data et transformation cloud • Maîtrise des environnements AWS et Snowflake • Capacité à intervenir sur des sujets complexes et structurants • Vision globale data (flux, modélisation, gouvernance) • À l’aise dans des environnements internationaux Merci de me faire parvenir votre CV à
Freelance

Mission freelance
AWS Connect SME (Example)

INVESTIGO
Publiée le

700-800 £GB
Royaume-Uni
AWS Connect SME - Amazon Connect - AWS Lambda - Contract - Outside IR35 My client are looking for a Senior AWS Connect Engineer who can take the lead on their Amazon Connect platform. You’ll be the go‑to person for designing, building, and improving their cloud contact center, working closely with teams across the business to make sure everything is scalable, secure, and runs smoothly. Responsibilities Design, build, and maintain Amazon Connect contact center solutions Integrate Amazon Connect with CRM, ticketing, and other internal systems Develop and maintain contact flows, IVRs, routing logic, and call recording policies Implement automation, monitoring, and alerting for contact center services Lead troubleshooting and performance tuning for voice and chat workflows Collaborate with stakeholders to gather requirements and translate them into technical designs Provide technical guidance, best practices, and mentorship to junior team members Ensure security, compliance, and reliability of the contact center platform Requirements 5+ years in cloud engineering, including 3+ years hands‑on with Amazon Connect Strong practical experience with: Amazon Connect (contact flows, queues, routing profiles, hours of operation) AWS Lambda, API Gateway, IAM, CloudWatch, S3, DynamoDB (or similar) Solid track record integrating Amazon Connect with internal and third‑party systems (CRM, ticketing, identity, etc.) Good understanding of telephony concepts (SIP, call routing, IVR, ACD, CTI) Comfortable with at least one programming language (Python, Node.js, or JavaScript) Experience using Infrastructure as Code (CloudFormation, CDK, or Terraform) Strong grasp of AWS security, networking, and identity Able to communicate clearly with both technical and non‑technical stakeholder
Freelance
CDD

Offre d'emploi
Architecte Data conteneurisation H/F

SMARTPOINT
Publiée le
Angular
AWS Cloud
Java

12 mois
70k-95k €
650-730 €
Île-de-France, France
Dans un contexte de transformation digitale et de modernisation des architectures, vous intervenez en tant qu’expert technique et data pour garantir la performance, la conformité et la robustesse des socles techniques . Vous jouez un rôle clé dans la conception d’architectures modernes, notamment autour des environnements conteneurisés et cloud . Vos missions: Garantir la conformité et la performance des socles techniques, avec une expertise sur les architectures conteneurisées et le développement de services innovants Revues et audits de code Préconisations d'architectures (conteneurisation) Développement de PoC et de services avancés Expertise et support aux équipes projet Les livrables: 6 à 8 revues/audits de code par an 6 à 8 études d’architecture par an 3 à 5 PoC / PoT par an Participation à la résolution de 6 à 8 incidents par mois
491 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous