L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 401 résultats.
Mission freelance
Data Engineer Python – Data Platform & Data Governance
Deodis
Publiée le
BI
Data Engineering
Data quality
1 an
340-500 €
Île-de-France, France
Dans le cadre de l’évolution de sa Data Platform, le client recherche un Data Engineer Python pour intervenir au sein de l’équipe DataHub Core Platform. La mission consiste à contribuer aux projets de migration vers une nouvelle plateforme, au développement de nouveaux cas d’usage BI ainsi qu’à la mise en place de workflows en Python. Le consultant participera également à des projets stratégiques tels que le Transaction Profiling, le Data Quality Framework (DQF) et le Data Lineage, avec pour objectif d’améliorer la qualité, la fiabilité et la traçabilité des données. Il sera aussi en charge du développement de modules Python mutualisés, réutilisables sur l’ensemble des projets data, dans un environnement dynamique et orienté gouvernance des données.
Mission freelance
Senior Data Engineer
Signe +
Publiée le
DBT
12 mois
400-580 €
Vélizy-Villacoublay, Île-de-France
🎯 MISSIONS Concevoir et déployer des pipelines ETL/ELT performants (complets, incrémentaux, historiques) Construire et maintenir des Data Warehouses, Data Marts et cubes décisionnels Intégrer des données via API, transferts de fichiers, Data Lakes Optimiser les performances SQL et gérer les incidents en production Contribuer aux phases de cadrage / data discovery avec les parties prenantes Appliquer les bonnes pratiques dev, tests et déploiement en Agile Livrables attendus : Composants data développés et déployés (code source) Documentation technique et fonctionnelle Modèles de données documentés Rapports de tests/recette + transfert de connaissances 🛠️ ENVIRONNEMENT TECHNIQUE Obligatoire : SQL Server (Database Engine, SSIS, SSAS) Power BI / Reporting Services SQL avancé, DAX, MDX Talend et/ou SSIS (ADF apprécié) CI/CD : Azure DevOps, GitLab Architecture : Data Warehouse, Data Lake, Médaillon Apprécié : DBT, Trino, MinIO GCP (BigQuery, GCS, Dataproc) 👤 PROFIL RECHERCHÉ Senior Data Engineer avec expertise confirmée Microsoft SQL Server Expérience solide en ETL industrialisé (Talend / SSIS) Bonne maîtrise des architectures data modernes Anglais courant indispensable Méthode Agile maîtrisée
Mission freelance
Un IT Quants / DevOps Engineer,
Keypeople Consulting
Publiée le
AWS Cloud
DevOps
Gitlab
6 mois
400-460 €
Paris, France
Je cherche un IT Quants / DevOps Engineer, au sein d’un environnement orienté plateforme analytique (IT Quant / DevOps). Au programme : Surveillance et accompagnement de la plateforme SPHERE Gestion d’un volume important de tickets Support à l’équipe en place pour accélérer les opérations Mise en place d’un outil end-to-end Amélioration et maintenance des pipelines GitLab Support DevOps applicatif Profil recherché : Python indispensable Bonne maîtrise de GitLab (pipelines & versioning) Connaissances AWS (Snowflake / Jupyter sont un plus) Autonomie, proactivité, esprit de résolution de problèmes Communication fluide en français et en anglais Cordialement,
Offre d'emploi
Data Engineer/Data Analyst Databricks & PowerBI H/F
JEMS
Publiée le
40k-50k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) Data Engineer/Data Analyst spécialisé(e) sur Databricks et PowerBI capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression • Être l‘intermédiaire entre le Métier et la DSI • Accroître la connaissance de la clientèle d'une entreprise, conduire des études sur les bases de données, suivre les outils datamining pour analyser l'impact des actions marketing • Mener et conduire des études (coordination/pilotage) Référence de l'offre : 3cxk4ok195
Mission freelance
Senior IT Security officer / Cloud
NEXORIS
Publiée le
AWS Cloud
Cybersécurité
DORA
1 an
600-750 €
Paris, France
Notre client, secteur des marchés financiers, recherche un IT Security Officer (H/F) dans le d'une longue mission. Renforcement de la posture de cybersécurité opérationnelle (analyse de risque, protection des accès, tests de sécurité) et accompagnement à la migration vers le cloud en conformité avec les exigences réglementaires. - Réaliser des analyses de risques cyber sur les projets IT et métiers (CIAT) - Participer à la mise en œuvre des mesures de sécurité opérationnelle (pentest, IAM, PAM, secret management, KMS...) - Suivre et coordonner les projets de migration vers le cloud (AWS et OVH), en lien étroit avec l’architecte sécurité -Intégrer les exigences réglementaires (LPM, DORA, NIST) dans les processus et projets - Produire la documentation sécurité attendue (politiques, procédures, rapports de risques) - Collaborer avec la deuxième ligne de défense pour assurer une gouvernance conforme aux standards en vigueur - Challenger les pratiques existantes et sensibiliser les parties prenantes aux enjeux de cybersécurité
Offre d'emploi
Lead Développeur Java/AWS
VISIAN
Publiée le
AWS Cloud
AWS Cloudwatch
GraphQL
3 ans
Paris, France
Tâches principales Analyse un besoin et modélise une application informatique Développe une application informatique Met en place l'intégration continue Maintenir et faire évoluer l'application Gère un projet de développement informatique Tâches supplémentaires Forme les utilisateurs Participe à la production Soutient la recette et traite les retours de recette Fournit un support client Compétences appréciées Familiarity with PostgreSQL Knowledge of CI/CD pipelines, monitoring, and logging in cloud-native environments Kubernetes
Offre d'emploi
Data Engineer
TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL
12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
Mission freelance
Analyst Engineer -Data Vault - Freelance
LeHibou
Publiée le
Data Engineering
DBT
Snowflake
6 mois
500-590 €
Paris, France
Contexte de la mission Dans le cadre du renforcement de son équipe Data, notre client recherche un(e) Analyst Engineer confirmé(e) spécialisé(e) sur la stack Snowflake / DBT , avec une expertise solide en Data Vault . Vous interviendrez sur la conception et l’optimisation de pipelines de données robustes, scalables et orientés qualité. Vos missions Concevoir, développer et maintenir des modèles de données sur Snowflake via DBT Mettre en œuvre des architectures data selon la méthodologie Data Vault Garantir la qualité, la traçabilité et la documentation des modèles ( tests dbt, lineage ) Collaborer avec les équipes Analytics et Data Engineering pour répondre aux besoins métier Participer aux revues de code et à l’amélioration continue des bonnes pratiques Data Optimiser les performances des requêtes et des traitements Compétences requises Excellente maîtrise de Snowflake Très bonne expertise DBT Compétence indispensable en modélisation Data Vault Expérience en environnement Data Engineering / Analytics Les plus Anglais professionnel Python
Mission freelance
AWS Senior Data Engineer / Data Architect (Event-Driven & Streaming)
Tenth Revolution Group
Publiée le
Amazon Redshift
AWS Cloud
AWS Glue
6 mois
400-650 €
Auvergne-Rhône-Alpes, France
Contexte Dans le cadre de la modernisation d’une plateforme data, vous concevez et mettez en œuvre des architectures cloud-native orientées événements sur AWS. L’objectif est de remplacer les traitements batch par des pipelines distribués, temps réel ou quasi temps réel, robustes et scalables. Missions principales Vous définissez des architectures data serverless event-driven, concevez des pipelines d’ingestion et de transformation distribués et mettez en place des systèmes découplés basés sur la messagerie en garantissant la scalabilité, la résilience et l’optimisation des coûts. Vous transformez les flux ETL batch en pipelines cloud-native, implémentez les patterns asynchrones (retry, DLQ, idempotence, gestion des timeouts) et industrialisez les déploiements via l’Infrastructure as Code et la CI/CD. Vous déployez le monitoring, le logging et le tracing afin de suivre la performance, la latence et la qualité des flux. Compétences clés Solide expérience des architectures event-driven et des systèmes distribués, de l’event sourcing et du message brokering, de la gestion du backpressure et de la latence ainsi que de la transformation distribuée et du traitement de gros volumes. Ce poste n’est pas orienté BI, reporting ou data engineering batch classique Positionnement Rôle transverse avec une forte interaction avec les équipes data, cloud, DevOps et applicatives, impliquant une responsabilité importante sur les choix techniques et les bonnes pratiques. Synthèse Profil d’architecte data AWS spécialisé en serverless et en architectures orientées événements, capable de concevoir des pipelines distribués scalables et résilients.
Offre d'emploi
Responsable Practice SRE
RIDCHA DATA
Publiée le
DevOps
Docker
Helm
1 an
Ivry-sur-Seine, Île-de-France
Contexte Dans le cadre du développement de sa Direction des Services, un acteur majeur du numérique recherche un(e) Responsable Practice SRE pour piloter et structurer la démarche Site Reliability Engineering au sein de la DSI. Vos missions Définir et piloter la stratégie SRE de l’entreprise Superviser la fiabilité, la performance et la sécurité des applications hébergées dans le cloud Accompagner les équipes dans la mise en œuvre des bonnes pratiques SRE / DevOps Automatiser les processus opérationnels et réduire les interventions manuelles Structurer et animer la communauté SRE afin d’harmoniser les pratiques Piloter la gestion proactive des incidents et les analyses post-mortem Superviser l’intégration des applications aux services d’infogérance Sélectionner et déployer les outils nécessaires à la pratique SRE Collaborer avec les équipes Dev, Ops, Sécurité et Cloud Platform Assurer une veille technologique continue sur les pratiques et outils SRE Responsabilités principales Élaborer la roadmap SRE : résilience, capacity planning, performance, disponibilité Encadrer et accompagner les équipes SRE dans leur montée en compétences Garantir le respect des SLA et l’amélioration continue des services Participer aux audits sécurité et conformité Promouvoir les bonnes pratiques cloud auprès des équipes métiers / BU Compétences techniques requises Très bonne maîtrise des environnements Cloud Expertise en : Linux / Unix Docker Kubernetes CI/CD Helm Terraform Ansible Solide expérience sur les outils de : Monitoring / Observabilité Logging / Supervision Bonne culture DevOps / SRE / Cloud Native
Offre d'emploi
Tech Lead Java DevOps AWS
ASTRELYA
Publiée le
AWS Cloud
Java
Springboot
Hauts-de-Seine, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Dans le cadre de notre développement, nous recherchons pour un client tertiaire un Tech Lead Java DevOps AWS (H/F). Votre mission : Participation à un programme stratégique de refonte d’une plateforme BtoC à l’échelle internationale Environnement Agile Scrum, collaboratif et multiculturel Objectif : concevoir des solutions cloud innovantes, performantes et hautement scalables sur AWS Mise en œuvre des meilleures pratiques DevOps et CI/CD Concrètement, vous allez : Concevoir et développer des applications Java robustes et performantes Mettre en place des architectures microservices cloud-native sur AWS Contribuer activement au développement : codage revues de code tests optimisation des performances Définir, promouvoir et appliquer les bonnes pratiques en matière de développement, qualité et sécurité Encadrer et accompagner les développeurs Collaborer étroitement avec les équipes produit, architecture et data à l’international Votre futur environnement technique : Langages & frameworks : Java , Spring Boot Cloud & infrastructure : AWS (Lambda, EC2, S3, RDS), Terraform, GitOps Intégration & services : microservices, API Management, Kafka, Redis, PostgreSQL CI/CD & DevSecOps : GitHub Enterprise, JFrog, SonarQube, ArgoCD Observabilité & sécurité : Datadog, Prisma Cloud Outils collaboratifs : Jira, Confluence Qui êtes-vous ? Ingénieur de formation ou équivalent Minimum 10 ans d’expérience Au moins 5 ans d’expérience sur des environnements DevOps / AWS Au moins 4 ans d’expérience en tant que Tech Lead Expérience confirmée en Agile Scrum et sur des projets internationaux Goût prononcé pour le partage de connaissances et l’amélioration continue Leadership et capacité à fédérer une équipe Sens de l’écoute et compréhension des enjeux techniques et métiers Communication claire et capacité à vulgariser des sujets complexes Esprit collaboratif et aisance dans un environnement multiculturel Proactivité, adaptabilité et sens de l’anticipation Pourquoi nous rejoindre ? Un terrain de jeu pour progresser : Formations, certifications, coaching technique , communautés d’expertise (Java, Cloud, DevOps, Data…) et participation à des projets innovants (IA, architectures Cloud, automatisation…). Un cadre de travail motivant : Projets variés et à forte valeur ajoutée , événements internes réguliers, afterworks et ateliers tech et salon (DevopsREX, Devoxx et ParisJUG…). Un engagement RSE : Ecovadis Gold, Signataire de la charte pour la diversité, du Pacte des Nations Unies et mise en place du Mécénat de compétences Votre futur process de recrutement : Entretien RH avec une de nos chargées de recrutement Test technique (test Kata interne ou un échange avec un de nos expert) Entretien final avec un de nos managers Chez Astrelya, nous construisons des solutions innovantes… mais surtout, nous construisons des parcours humains. Prêt(e) à rejoindre l’aventure ? Tous nos postes sont ouverts aux personnes en situation de handicap. #recrutement#TechLead#Java#AWS
Mission freelance
Directeur de Projet Data (Data Services) F/H
SMARTPOINT
Publiée le
Agent IA
BI
Big Data
12 mois
600-700 €
Paris, France
Mission principale Le Directeur de Projet Data a pour mission de piloter des projets Data & IA structurants au sein de l’entité Data Services. Il coordonne les équipes internes et les centres de services (CDS) et garantit la qualité des livrables, le respect des budgets ainsi que des délais de livraison. Tâches et activités Piloter l’activité projet : planification, suivi des charges, budgets et ressources Coordonner les équipes internes et les centres de services (CDS) Animer les instances de gouvernance (COPIL / COPROJ) Assurer le cadrage des besoins métiers et techniques Organiser le reporting projet auprès des parties prenantes Suivre les risques, dépendances et plans d’actions associés Garantir la bonne exécution des projets dans le respect des engagements Livrables et résultats attendus Suivi hebdomadaire de l’activité projet (planning, risques, avancement) Suivi financier mensuel des projets (budget, consommé, forecast) Préparation et animation des comités de pilotage et comités projet Reporting régulier à destination des directions métiers et IT Respect des engagements en termes de qualité, coûts et délais Compétences techniques Maîtrise des outils de gestion de projet (Jira) Bonne connaissance des environnements Cloud AWS Utilisation des outils ITSM (ServiceNow) Vision globale des outils et architectures décisionnelles (Data, BI, IA) Compréhension des enjeux des plateformes Data & transformation digitale Compétences clés Leadership et coordination multi-équipes Capacité de communication et de reporting Rigueur et sens de l’organisation Gestion des priorités et des risques Orientation résultats et qualité de delivery
Mission freelance
Profil RDARR, data quality, data lineage, data governance
Mon Consultant Indépendant
Publiée le
Data management
6 mois
480-520 €
Paris, France
Pour le compte de l’un de nos clients du secteur bancaire , nous recherchons un consultant spécialisé en data management réglementaire , avec une expertise sur les dispositifs RDARR et BCBS 239 . Le consultant interviendra sur les sujets de data quality, data lineage et data governance , en contribuant à la mise en conformité et à l’amélioration des dispositifs de gestion des données. Il participera à l’analyse des processus, à la définition des règles de gouvernance et au suivi des exigences réglementaires. Le poste requiert une solide connaissance des environnements bancaires et des enjeux liés à la qualité et à la traçabilité des données.
Offre d'emploi
Tech Lead Python- IAGen (H/F)
1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes
12 mois
Paris, France
Contexte : Dans le cadre de l’accélération de ses capacités en IA, notre client renforce son architecture autour de l’ IA générative . Projet avec des enjeux forts autour de : RAG (Retrieval-Augmented Generation) industrialisation de modèles GenAI scalabilité des solutions IA Missions : Piloter les projets de bout en bout (conception → prod) Driver les sprints (organisation, tickets, priorisation) Encadrer et faire monter en compétence les développeurs Définir et porter l’architecture backend IA Contribuer aux développements Python complexes Garantir les bonnes pratiques (code, perf, scalabilité) Compétences techniques Python (expert) IA générative (expérience industrielle obligatoire ) AWS (Lambda, Bedrock, SageMaker…) RAG / LLM / NLP Architecture backend & systèmes scalables
Mission freelance
Data Scientist IA / NLP
ALLEGIS GROUP
Publiée le
Data science
1 an
Île-de-France, France
Suite à la mise en production d’une solution de relation client basée sur l’IA (Speech-to-Speech) , Le Client lance le déploiement à grande échelle de cette solution sur plusieurs canaux digitaux, dans une logique d’ industrialisation . Dans ce cadre stratégique, il souhaite renforcer ses équipes Data afin d’accompagner deux chantiers majeurs : Amélioration et industrialisation du monitoring Mise en place de Test Ops avancés , incluant la création d’une Test Case Factory “IAisée” : Génération automatique de scénarios de tests Approche Data Science pour valider chaque nouvelle version Garantir la robustesse et la performance des solutions déployées Plusieurs Data Scientists sont recherchés pour scaler aux côtés des équipes . MISSIONS : Concevoir et améliorer les dispositifs de monitoring des solutions IA en production Définir et implémenter une usine de tests automatisés basée sur l’IA Travailler sur des problématiques de texte et de langage (Speech, NLP, LLM, agents intelligents) Collaborer étroitement avec les équipes Produit, Tech et Data dans un contexte d’industrialisation
Mission freelance
SRE DevOps / AI Automation (H/F)
HOXTON PARTNERS
Publiée le
Agent IA
AWS Cloud
DevOps
9 mois
Paris, France
Dans le cadre d’un programme stratégique au sein d’un grand groupe du secteur du luxe, nous recherchons un consultant senior SRE DevOps disposant d’une forte expertise sur AWS et d’une expérience concrète dans l’automatisation de la remédiation d’incidents via des agents IA. La mission s’inscrit dans un environnement exigeant, orienté fiabilité, performance et industrialisation des opérations. Le consultant interviendra sur des sujets de Site Reliability Engineering, d’automatisation avancée, d’observabilité et d’optimisation de la production, avec une forte dimension innovation autour des LLM et des agents autonomes. Les responsabilités incluent notamment : contribuer à la fiabilité, à la stabilité et à la performance des plateformes cloud AWS ; concevoir et mettre en œuvre des mécanismes de remédiation automatique d’incidents ; intégrer des agents IA dans les workflows d’exploitation, de troubleshooting et de runbooks ; participer à la mise en place de chaînes d’automatisation autour du monitoring, de l’alerting et de la gestion des incidents ; travailler sur des architectures et outils liés à Kubernetes, Docker, Terraform, Ansible et Helm ; collaborer avec les équipes infrastructure, applicatives, sécurité et opérations pour améliorer la résilience globale des services ; contribuer à l’observabilité et à l’exploitation des données issues d’outils tels que Datadog, Dynatrace, New Relic ou Elastic ; accompagner l’industrialisation des pratiques DevSecOps, de la gestion des accès, des secrets et des sujets IAM.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2401 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois