Trouvez votre prochaine offre d’emploi ou de mission freelance Web service
Votre recherche renvoie 607 résultats.
Mission freelance
Technical Leader Data AWS /Data Mesh /Data Governance /Power BI /Tableau /Anglais (H/F)
Octopus Group
Publiée le
AWS Cloud
Collibra
Data governance
9 mois
450-500 €
Roissy-en-France, Île-de-France
Nous recherchons pour le compte de notre client grand-compte dans le domaine automobile, un Technical Leader Data ayant un Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst. Contexte : Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs Missions : Pilotage technique du datalake AWS Supervision complète de la plateforme data AWS Coordination et encadrement d’une équipe de 5 développeurs basée en Inde Conception et adaptation des architectures AWS selon les standards du groupe Implémentation et optimisation des services AWS : ➢ S3 ➢ Glue ➢ Kinesis ➢ Lambda ➢ EventBridge ➢ CloudWatch Suivi du fonctionnement, des performances et de la robustesse des pipelines Mise en place de mécanismes d’alerting, supervision et automatisation Ingestion et transformation de données Analyse des systèmes sources internes et externes Définition du flux d’ingestion de bout en bout Orchestration des pipelines d’ingestion et de transformation Consolidation et structuration des datasets Mise à disposition des données transformées dans PostgreSQL pour les systèmes consommateurs Validation de l’intégrité, cohérence, performance et fraîcheur des données Gouvernance, qualité et bonnes pratiques Définition et application des guidelines du datalake Mise en place des standards de gouvernance de données Suivi et amélioration de la qualité des données Gestion des accès, sécurité, conformité et règles de partage Animation des pratiques data selon les meilleures normes du marché Supervision de l’usage de Collibra pour la gouvernance documentaire Management de projets et méthodologies Gestion de projets data à fort enjeu stratégique Pilotage de la migration du SI BI vers un nouvel environnement : ➢ Définition du scope ➢ Planification des jalons ➢ Suivi des coûts et ressources ➢ Coordination des acteurs ➢ Organisation du passage en production Application avancée des méthodologies Agile Animation des cérémonies et des instances de pilotage Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst BI, reporting & outils analytiques Gestion complète des plateformes BI du groupe : ➢ Tableau ➢ Power BI Définition et suivi des standards de développement BI Support fonctionnel et technique auprès des utilisateurs internes Orchestration des accès, bonnes pratiques et optimisation des dashboards Interaction avec les métiers pour la compréhension et formalisation des besoins Mise en disposition des data sets pour les solutions analytiques TMA, incidents et opérations Gestion du run du datalake et des outils BI Analyse, diagnostic et résolution des incidents Coordination avec les équipes TMA Optimisation continue des pipelines et dashboards Suivi des performances applicatives via New Relic Monitoring, FinOps & optimisation Mise en place de dashboards FinOps dédiés Suivi en continu de la consommation et des coûts AWS Analyse détaillée des optimisations possibles Recommandations régulières pour réduire les coûts et renforcer l’efficacité Automatisation de contrôles de performance et logs
Offre d'emploi
Architecte Plateforme & DevSecOps – Hybrid Cloud AWS / GCP / Vision Platform Engineering
ANAFI CONSULTING
Publiée le
Architecture
CI/CD
Cloud
1 an
40k-80k €
400-750 €
Île-de-France, France
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil basé à Paris, fondé en 2023. Nous accompagnons nos clients grands comptes dans leurs transformations technologiques et organisationnelles, avec une expertise forte en Cloud, Platform Engineering, DevSecOps, Data, Sécurité et numérique responsable . Nous intervenons dans des secteurs variés : finance, télécommunications, IT, industrie critique et énergie. Votre rôle Dans le cadre de programmes stratégiques de transformation Cloud et d’industrialisation des plateformes IT, nous recherchons un(e) Architecte Plateforme & DevSecOps Hybrid Cloud AWS / GCP . Vous interviendrez à un niveau High Level Design / Vision Architecture , en pilotant la conception de plateformes cloud hybrides sécurisées, automatisées et orientées produit (Platform Engineering). Votre rôle combinera : Vision d’architecture cible multi-cloud Conception de plateformes d’ingénierie interne (Internal Developer Platform) Industrialisation CI/CD et DevSecOps Gouvernance cloud, sécurité et FinOps Accompagnement des équipes (Architecture, Dev, Ops, Sec, Data) Vos missions principales Vision & Architecture Plateforme Définir la Target Architecture Platform Engineering en environnement hybride AWS / GCP. Concevoir des plateformes mutualisées : Runtime container / Kubernetes multi-cloud Observabilité unifiée Sécurité by design Gestion des identités et des accès cross-cloud Concevoir des architectures orientées resilience, scalability et zero trust . Définir les patterns d’architecture standardisés (landing zones, blueprints, golden paths). Industrialisation & DevSecOps Concevoir et structurer des chaînes CI/CD globales multi-cloud . Définir les standards : Infrastructure as Code Policy as Code Security as Code Compliance as Code Intégrer les contrôles sécurité dans le cycle de delivery (shift-left security). Structurer la stratégie GitOps et automatisation des environnements. Platform Engineering & Developer Experience Participer à la conception d’ Internal Developer Platforms (IDP) . Définir les parcours développeurs : Self-service infrastructure Templates applicatifs Environnements automatisés Optimiser la Developer Experience et le Time To Market. Gouvernance Cloud & FinOps Définir les modèles de gouvernance multi-cloud. Mettre en place des stratégies FinOps et optimisation des coûts. Participer aux comités d’architecture et de gouvernance groupe. Sécurité & Conformité Définir les modèles DevSecOps et Zero Trust. Intégrer les exigences réglementaires et compliance sectorielle. Participer aux analyses de risques et aux stratégies de sécurisation plateforme. Accompagnement & Leadership Accompagner les équipes architecture, DevOps, sécurité et Data. Animer des ateliers d’architecture et des communautés techniques. Porter la vision plateforme auprès des directions techniques et métiers.
Mission freelance
Developpeur fullstack (H/F) - 92
Mindquest
Publiée le
AWS Cloud
Terraform
1 an
300-480 €
Neuilly-sur-Seine, Île-de-France
Dans un contexte de renouvellement et d’accélération des initiatives d’innovation, notre client souhaite renforcer son équipe technique. Les missions actuelles arrivant à leur terme, un profil Fullstack senior est recherché pour accompagner les nouveaux projets à forte valeur ajoutée. L’équipe en place se compose de : 1 Responsable Tech (lead des projets) 3 Chefs de projet 1 Développeur Fullstack Le poste est rattaché directement au client, avec un fort niveau d’autonomie et une collaboration étroite entre les équipes métier et techniques. Mission En tant que Développeur Fullstack orienté innovation, vous interviendrez sur des sujets variés et stratégiques, avec un rôle central dans l’exploration et la mise en œuvre de nouvelles technologies. Innovation & R&D Mener des POC et évaluer des technologies innovantes, notamment dans les domaines suivants : Musique & services aux sociétaires Outils digitaux dédiés aux sociétaires Horodatage via la blockchain IA générative appliquée à la musique Prototyper des solutions en s’appuyant sur 3 KPI définis, afin de démontrer la valeur métier. Participer à l’innovation interne, avec pour objectif l’intégration des solutions dans les processus de production. Collaboration & Amélioration continue Travailler en binôme étroit avec les chefs de projet (forte interaction métier / tech). Contribuer à l’amélioration de la démarche d’innovation globale. Challenger l’existant et les équipes pour accélérer les délais et optimiser les pratiques. Participation possible à l’audit du Vibe Coding.
Mission freelance
Architecte Data AWS (H/F)
Insitoo Freelances
Publiée le
Apache Kafka
Apache NiFi
Apache Superset
2 ans
550-610 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data AWS (H/F) à Lyon, France. Contexte : Dans le cadre d’un programme de transformation Data, nous souhaitons consolider son socle data autour d’une architecture cible fiable, évolutive et sécurisée. L’architecte data interviendra en support de l'équipe existante, en assurer la validation technique et fonctionnelle, et mettre en œuvre les mesures de sécurité nécessaires. Les missions attendues par le Architecte Data AWS (H/F) : Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager sur des solutions et architectures mises en œuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues. Environnement technique : Architecture et modélisation : Conception de modèles de données (relationnels, NoSQL, dimensionnels, etc.). Maîtrise des architectures Data Warehouse, Data Lake et Data Mesh. Base de données : Expertise en systèmes de gestion de bases de données SQL, NoSQL et notamment PostgreSQL, Snowflake, ElasticSearch et DuckDB Cloud Computing : Connaissance approfondie des services de données des fournisseurs Cloud et notamment AWS Langages et technologies : Intégration & Flux : Apache Nifi ; Transport & Temps Réel : Apache Kafka ; Visualisation (BI) & Reporting : Apache Superset Gouvernance Data : Définition des politiques, des standards et des normes pour garantir la qualité, l'intégrité et la gestion du cycle de vie des données. Sécurité : Connaissance des principes de cybersécurité et maîtrise de la réglementation sur la protection des données (notamment le RGPD). Approche Secure by design (chiffrement, gestion des accès, observabilité, supervision).
Mission freelance
INGENIEUR DE PRODUCTION VTOM sénior H/F
Cheops Technology
Publiée le
Apache
AWS Cloud
CFT (Cross File Transfer)
1 an
400-450 €
Saint-Denis, Île-de-France
Nous recherchons pour un de nos clients un ingénieur VTOM H/F: Intégrer et déployer en méthode AGILE les évolutions de la ligne de Service Ordonnancement (VTOM). Préparer la mise en exploitation des évolutions ou d’une évolution d’application dans un système d’information tout en s’attachant à vérifier que les applications insérées dans le système d’information fonctionnent conformément aux attentes techniques et métiers, et que les procédures d’exploitation sont conformes aux standards établis. Gérer la relation avec les Clients et Projets Applicatifs en vue de garantir et améliorer la qualité des services de production et d’améliorer globalement les services de la ligne de Service ordonnancement Assure la maintenance et l’évolution des plateformes VTOM. •Créer/maintenir les scripts nécessaires pour l’ordonnancement. •Créer et encapsuler des scripts fonctionnelles •Paramétrer les jobs VTOM •Préparer la télédistribution en production •Maintenir en condition opérationnelle des chaines d’ordonnancements et des plateformes. •Accompagner les solutions métiers pour la rédaction de leur plan d’ordonnancement. •Assister et conseiller les équipes projets sur les différentes solutions pour leur ordonnancement applicatif. •Participer à la définition des architectures techniques •Définir / supprimer / modifier les plans d’ordonnancement •Maintenir les documentations •Participer à la conception des feuilles de route techniques des plateformes Environnement fonctionnel et technique : Environnement : Hébergement Datacenter et cloud (Aws, Azure) SGBD Oracle, Micrososft Sql Server, Postgresql, Ingres 9.2 sur Solaris , NoSQL Couchbase, Redis, MONGODB, PAAS SGBD (AWS et Azure) Serveurs Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server Middlewares Apache, Tomcat, Weblogic, CFT, MQ Server, SFTP, JMS, VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo Plateformes/ logiciels / Outils Teraform, Jenkins, Ansible, squash TM, Postman, Docker, Kubernetes, Databricks, Script Shell, Python Supervision Nagios, Datadog, SpluNK
Offre d'emploi
Administrateur infrastructure - (H/F)
SWING-ONE
Publiée le
Administration réseaux
AWS Cloud
Linux
6 mois
Île-de-France, France
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un administrateur infrastructure. Dans un environnement IT hybride et critique, vous assurez l’exploitation, l’évolution, la sécurité et la disponibilité des infrastructures on-premise et cloud. Vous intervenez sur des plateformes virtualisées VMware / VxRails / vSphere, des baies de stockage SAN/NAS, des environnements Linux et Windows, ainsi que sur des infrastructures cloud hybrides GCP et AWS, intégrées avec Microsoft 365 / Entra ID. MISSIONS PRINCIPALES : Administrer et maintenir les environnements virtualisés VMware vSphere / ESXi Exploiter et maintenir les infrastructures VxRails Administrer les baies de stockage SAN / NAS (performance, disponibilité, capacité) Administrer les environnements Linux (RedHat, Debian, Ubuntu…) Administrer Windows Server Administrer les environnements GCP et AWS Participer à l’architecture et à l’exploitation d’un SI hybride (on-premise / cloud) Administrer Microsoft 365 (Exchange Online, SharePoint, OneDrive, Teams) Gérer Entra ID (Azure AD) : identités, MFA, accès conditionnels
Mission freelance
Ingénieur Data senior
JobiStart
Publiée le
AWS Cloud
Python
1 an
400-550 €
Île-de-France, France
Intervenir sur des programmes stratégiques Data et Intelligence Artificielle au sein de la DSI, sur un socle Cloud orienté Data Intelligence Apporter une expertise Data et Machine Learning Engineering pour concevoir, déployer et exploiter des solutions analytiques et IA à l’échelle Mettre en place des chaînes complètes de gestion de la donnée, depuis l’ingestion jusqu’à l’exposition des usages data et IA Développer et automatiser des flux de données distribués en s’appuyant sur les services Cloud AWS Construire et maintenir des pipelines robustes intégrant orchestration, traitement et stockage des données Participer à la structuration et à l’industrialisation des environnements MLOps et des cycles de vie des modèles ML et IA générative Déployer, superviser et automatiser les plateformes de Machine Learning (SageMaker) et les mécanismes de monitoring associés Réaliser des traitements analytiques, transformations de données et optimisations sur des plateformes de type data warehouse cloud Mettre en œuvre des processus CI/CD et des déploiements automatisés via des outils DevOps Développer des briques techniques Data/IA exploitables par les équipes internes (pipelines, services, composants applicatifs) Participer aux phases de conception, d’architecture, de tests, d’intégration et de mise en production des solutions Alimenter et maintenir les environnements nécessaires aux produits data, analytiques et applicatifs Accompagner les équipes Data Science et techniques dans la clarification des besoins Data/IA Faciliter l’industrialisation et la mise à disposition rapide des cas d’usage Produire la documentation technique et contribuer au respect des standards d’architecture, sécurité et gouvernance
Offre d'emploi
Architecte Kafka
LEVUP
Publiée le
Apache Kafka
AWS Cloud
12 mois
Liège, Belgique
Dans le cadre de la conception et de l’évolution de plateformes applicatives et data orientées temps réel , nous recherchons un Architecte Kafka AWS capable d’intervenir de bout en bout (end-to-end / endzone) : de l’architecture backend et streaming jusqu’à l’intégration avec les applications frontend. Le poste s’inscrit dans des environnements cloud AWS à forts enjeux de performance, de scalabilité et d’intégration SI. Rôle & responsabilitésArchitecture globale (End-to-End) Concevoir l’ architecture applicative et data de bout en bout Garantir la cohérence entre : Frontend (Angular) Backend (.NET) Streaming & intégration (Kafka) Infrastructure AWS Être le référent architecture sur le périmètre fonctionnel et technique Kafka & intégration Concevoir et mettre en œuvre des architectures événementielles basées sur Apache Kafka Définir les patterns d’intégration : Event-driven Pub/Sub CDC (Change Data Capture) Mettre en place Kafka Connect, Schema Registry, MirrorMaker Accompagner les équipes sur la modélisation des événements et contrats de données Environnement AWS Déployer et opérer Kafka sur AWS (Amazon MSK ou équivalent) Concevoir l’architecture cloud : VPC, IAM, sécurité, réseaux EC2 / EKS selon les besoins Intégrer Kafka avec les services AWS (S3, Lambda, bases de données, etc.) Backend – .NET Concevoir des API et services backend en .NET Définir les standards d’architecture (clean architecture, microservices) Garantir performance, sécurité et maintenabilité Intégrer les flux Kafka côté backend Frontend – Angular Définir les principes d’architecture frontend Angular Assurer la bonne intégration avec les API et les flux temps réel Travailler sur l’expérience utilisateur dans des applications data-driven Qualité & gouvernance Mettre en place les bonnes pratiques : Sécurité Monitoring Logging Résilience Documenter les architectures Participer aux revues techniques et d’architecture Accompagner et guider les équipes de développement Compétences techniques requisesStreaming & intégration Apache Kafka (expert) Kafka Connect, Schema Registry Architectures event-driven Formats : JSON, Avro, Protobuf Cloud & DevOps AWS (très bonne maîtrise) Amazon MSK CI/CD Infrastructure as Code (Terraform, CloudFormation) Backend .NET / C# APIs REST Microservices Frontend Angular Intégration frontend / backend Notions UX appréciées Profil recherché Formation ingénieur ou équivalent Expérience confirmée en architecture end-to-end Solide expérience sur Kafka en production À l’aise dans des environnements complexes et multi-équipes Capacité à dialoguer aussi bien avec les développeurs que les métiers Atouts appréciés Expérience grands comptes Connaissances data (Spark, Flink, etc.) Certifications AWS / Kafka Sens du produit et de l’expérience utilisateur
Offre d'emploi
DevOps Python H/F
OBJECTWARE
Publiée le
AWS Cloud
Python
1 an
Nantes, Pays de la Loire
Les missions : - vous intervenez sur l’ensemble du cycle de vie des applications : conception, développement, déploiement et maintenance. - vous participez activement à la conception de solutions robustes, scalables et sécurisées, en répondant aux exigences fonctionnelles et techniques. Le rôle couvre à la fois le développement Front-End (React), le développement Back-End (Python, AWS Lambda) ainsi que les activités DevOps et Cloud AWS. - vous êtes impliqué(e) dans une migration technologique d’un backend existant
Mission freelance
🚀 Mission Freelance – Développeur Python / AWS / IA (H/F)
Tenth Revolution Group
Publiée le
.NET
Angular
AWS Cloud
12 mois
320-510 €
Le Havre, Normandie
📍 Localisation : Calais 🏢 Présence : 1 jour sur site / semaine — télétravail le reste du temps 📅 Durée : Mission long terme ⚡ Démarrage : Dès que possible 🎯 Contexte Dans le cadre d’un programme stratégique orienté conception de solutions basées sur l’intelligence artificielle , nous recherchons un Développeur Python confirmé à senior pour intégrer une équipe d’architecture technique. L’environnement est structuré, exigeant et à forte contrainte technique : ce rôle s’adresse à un profil capable d’être rapidement autonome , opérationnel dès son arrivée et à l’aise dans des contextes complexes sans encadrement rapproché. 🛠️ Vos missions Concevoir et développer des solutions IA en Python Intégrer vos développements dans un écosystème applicatif existant et complexe Respecter des process techniques stricts et normés Collaborer étroitement avec l’équipe d’architecture Garantir la qualité, la robustesse et la maintenabilité du code 🧠 Environnement technique Langage : Python Cloud : Azure (AKS, Azure SQL) CI/CD : GitHub Monitoring : Grafana Backend historique : .NET Frontend : Migration Angular → React
Mission freelance
Référent technique Dataiku / Braincube (H/F)
Insitoo Freelances
Publiée le
Architecture
AWS Cloud
Dataiku
2 ans
550-670 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Référent technique Dataiku / Braincube (H/F) à Paris, France. Contexte : Dans le cadre du déploiement et de l’exploitation des solutions Dataiku et Braincube pour notre client, nous recherchons un consultant senior capable d’intervenir en tant que référent technique et architectural au sein de la Data Factory. Son rôle sera d’assurer la performance, la qualité de service et la bonne exploitation des plateformes data dans un environnement hybride AWS / On Premise. Les missions attendues par le Référent technique Dataiku / Braincube (H/F) : • Maintien des standards, suivi des usages, conformité licences • Gestion des incidents, demandes, changements • Pilotage performance, optimisation, définition de SLAs & KPIs • Construction et suivi de la roadmap technologique • Amélioration continue & gestion du plan de charge • Sécurité, résilience et gestion de l’obsolescence • Interface avec les équipes DSIC et coordination France / Inde Livrables attendus : • Offre de service (ServiceNow) • Météo du service & reporting • Guides de bonnes pratiques Dataiku / Braincube • Supports de formation & onboarding • Cartographie des flux et modèles data • Business model du service Environnement technique : • Dataiku (Design Node, Automation Node, API Node, Deployer Node) – Cloud AWS & On Premise C3 • Écosystème data interfacé : EKS, Snowflake, stockage, ingestion, restitution • Plateforme Braincube hébergée sur AWS – EKS, opérée par l’éditeur • Environnement de dev standardisé, documentation centralisée et outils collaboratifs (Teams, Backlog…) Compétences attendues : • Expertise AWS (S3, EKS, EC2…) • Maîtrise Dataiku et connaissance des outils data & ML Ops • Compréhension architecture SI & data, gouvernance, sécurité (RBAC, chiffrement, RGPD) • Aptitude à collaborer avec les équipes France / Inde • Excellente capacité de documentation et de vulgarisation • Capacité à construire un business model de service • Minimum 8 ans d’expérience Détails logistiques : • Télétravail : 2J par semaine • Localisation : Paris / Malakoff - avec ponctuellement des déplacements à Châteaufort / Magny les Hameaux
Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault
CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD
3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Mission freelance
EXPERT DBA SQL ORACLE & AWS HABILITABLE, anglais courant H/F
Cheops Technology
Publiée le
Administration système
AWS Cloud
Microsoft SQL Server
6 mois
400-550 €
Melun, Île-de-France
Sous la responsabilité du responsable de service et le support d’un référent interne expert le candidat aura en charge la gestion des activités suivantes Gestion globale d’exploitation du périmètre des bases de données •Gestion des incidents et des changements •Maintien en Condition opérationnelles et de Sécurité (Patching) •Contribution à la mise à jour et au maintien du catalogue des services Base de Données •Reporting et du suivi d’activité global de son périmètre •Respect des normes et exigences de sécurité des systèmes d’informations •Respect des process •Réalisation et mise à jour des documentations d’exploitation En complément, il participera à l’accompagnement technique d’intégration des bases de données pour les projets (BUILD) •Définition d’architecture des bases de données pour les projet applicatifs (accompagnement des architectes sur les spécifications et exigences techniques de dimensionnement, disponibilité, et de performance •Accompagnement à l’intégration des bases de données des solutions applicatives •Elaboration des référentiels techniques de bases de données (Dossier d’architecture technique détaillés, Dossier de mise en exploitation SQL Serveur CLOUD
Offre d'emploi
Data Engineer 2 - 5 ans (aws) PARIS
Cogniwave dynamics
Publiée le
Data science
Paris, France
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe et travailler en étroite collaboration avec nos experts Data Science (profil ingénieur ML/Data), spécialisé dans les pipelines IA, le NLP, les LLM, le RAG et AWS Bedrock. Le poste est basé à Paris, avec possibilité de télétravail, au sein d’une équipe dynamique orientée IA générative et analyse intelligente de documents. 💼📍 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes (ETL, SQL / NoSQL). Intégrer, déployer et optimiser des modèles de Machine Learning et LLM (Scikit-learn, Transformers, LangChain). Mettre en œuvre des architectures cloud AWS : S3, Bedrock, EC2, ECR / ECS Fargate. ☁️ Développer des APIs (Flask / FastAPI), des chatbots RAG et des outils de matching CV / offres. Collaborer sur des projets OCR, NLP et de visualisation de données (Power BI). 📊 Animer des formations et interventions publiques sur l’IA (ateliers, webinaires) afin de partager l’expertise et vulgariser les avancées ML/LLM auprès de clients et partenaires. 🎓
Mission freelance
Développeur Fullstack Java/Kotlin/Flutter (F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
Flutter
Kotlin
12 mois
400-550 €
Saint-Denis, Île-de-France
Contexte Nous recherchons un(e) développeur(se) Fullstack motivé(e) par des enjeux techniques variés et à fort impact. Une bonne maîtrise de la stack AWS est attendue afin de participer activement à la conception, au développement et à l’exploitation des services. Description Dans un contexte d'équipe agile (et d'applications à fort trafic), le développeur Full stack conçoit, développe, déploie et maintient les fonctionnalités front user afin de répondre aux exigences fonctionnelles exprimées dans le cadre de la conception de solutions ou d'applications. Le développeur Full stack est capable d'intervenir sur la partie "front" et sur la partie "back" des applications, mais aussi sur la partie CI/CD. Il maîtrise les langages de développement de front et de back, ainsi que les framework les plus utilisés et les bonnes pratiques de développement de ces deux parties. Livrables Revues de code. • Réalisation et rédaction d'études de conception technique. • Analyse d'anomalies & support aux problèmes d'exploitation; Capacité à investiguer la source d'un bug. • Contribution aux respects de critères d'acceptance d'une release. • Participation aux cérémonies agiles : daily meeting, estimation des tâches, rétrospective d'équipe. Participation à la qualité, la résilience, et la sécurité de l'application
Mission freelance
Data Analytics Enigneer
Phaidon London- Glocomms
Publiée le
AWS Cloud
Data visualisation
Python
6 mois
400-550 €
Paris, France
Concevoir, développer et optimiser des modèles de données pour l’analyse et le reporting Mettre en place et maintenir des pipelines de données robustes et performants Collaborer avec les équipes data et métiers pour comprendre les besoins et les traduire en solutions analytiques Garantir la qualité, la cohérence et la documentation des données Contribuer aux projets de visualisation de données, notamment via Tableau Participer à l’évolution des bonnes pratiques et des standards internes en analytics engineering
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
607 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois