L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 638 résultats.
Offre d'emploi
Data intégration Senior (H/F)
1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes
12 mois
Paris, France
Contexte : Dans le cadre de la construction du datalake des équipes Group Digital & IT International Cybersécurité de notre client, nous recherchons un(e) Consultant Data Integration Senior . Missions : Organiser et piloter votre activité ainsi que celle d’un consultant junior Garantir le respect des délais, de la qualité de livraison et des bonnes pratiques Assurer une communication claire et régulière sur l’avancement Concevoir et implémenter les flux d’ingestion de données (API, SFTP, DB) Développer et orchestrer les pipelines avec Azure Data Factory Alimenter et structurer le datalake dans Snowflake Concevoir des modèles de données (tables de faits, dimensions) Préparer les données pour les usages analytiques et le reporting Collaborer à la restitution via Power BI Participer à la mise en place de futures briques techniques telles que Apache Airflow (via Astronomer) et DBT Contribuer à l’amélioration continue de l’architecture data Comprendre les enjeux cybersécurité (gestion des assets, conformité, outils de sécurité) Exploiter les données issues des outils cyber pour produire des indicateurs pertinents Compétences techniques: Expertise sur Snowflake (modélisation, performance, structuration) Maîtrise de Azure Data Factory Bonne expérience en modélisation décisionnelle (schémas en étoile : faits/dimensions) Expérience en intégration de données multi-sources (API, SFTP, bases de données) Bon niveau en SQL Appréciées Expérience avec Power BI Connaissance de Apache Airflow (ou Astronomer) Notions ou expérience avec DBT Connaissance des environnements cloud Azure
Offre d'emploi
Data Engineering confirmé
AVA2I
Publiée le
DBT
Microsoft Power BI
Île-de-France, France
Concevoir, développer et maintenir les pipelines de données, les modèles analytiques et les tableaux de bord décisionnels afin de garantir une donnée fiable, exploitable et performante pour les équipes métiers. ResponsabilitésData Engineering Concevoir et maintenir les pipelines ETL/ELT. Intégrer des données depuis différentes sources (API, bases SQL, ERP, CRM, fichiers, cloud). Optimiser les traitements de données et la performance des flux. Assurer la qualité, la fiabilité et la gouvernance des données. Mettre en place des tests, monitoring et alertes sur les pipelines. Participer à l’architecture data et aux choix techniques. dbt (Data Build Tool) Développer et maintenir les modèles dbt. Structurer les couches Bronze / Silver / Gold. Créer des tests de qualité et documentation dbt. Gérer les dépendances et transformations SQL. Industrialiser les déploiements CI/CD dbt. Power BI Concevoir des dashboards et rapports interactifs. Créer des modèles de données optimisés. Développer des mesures DAX avancées. Mettre en place la sécurité des accès (RLS). Optimiser les performances des rapports Power BI. Collaborer avec les métiers pour comprendre les besoins analytiques. Compétences techniques requisesObligatoires SQL avancé Power BI (Power Query, DAX, Modélisation) dbt Python ou autre langage scripting Data Warehouse (Snowflake, BigQuery, Redshift, Synapse…) Git / GitLab / GitHub ETL / ELT Modélisation de données Appréciées Airflow / Dagster Azure Data Factory / Microsoft Fabric Docker CI/CD Cloud AWS / Azure / GCP Méthodologies Agile
Mission freelance
Data Analyst / VBA Developer – Data Quality & KYC Transformation - Paris
Net technologie
Publiée le
Data quality
Powershell
SQL
6 mois
400-420 €
Paris, France
📊 Data Analyst / VBA Developer – Data Quality & KYC Transformation Dans le cadre d’un programme stratégique de transformation Client Lifecycle / KYC , nous recherchons un profil Data / VBA pour assurer la qualité et la continuité des flux de données entre systèmes legacy et une plateforme cible. 🎯 Enjeu : garantir la fiabilité des données , piloter les réconciliations et accompagner les migrations jusqu’au décommissionnement des outils historiques. 🚀 Missions Maintenance et évolution du code VBA (Excel/Access) Pilotage des réconciliations data (quotidiennes & hebdomadaires) Exécution et suivi des processus bulk de remédiation Administration et migration SharePoint Online Suivi des KPI et continuité des flux de production Contribution à la migration vers les outils cibles Documentation, support et coordination avec équipes internationales 📌 Répartition : 50% dev / 50% production & monitoring
Mission freelance
Ingénieur Data Ops / Systèmes – Support & Exploitation Plateforme Data (Production / Run) (H/F)
TechOps SAS
Publiée le
Apache Airflow
Dremio
Grafana
12 mois
400-510 €
Île-de-France, France
Dans le cadre du renforcement d’une plateforme Data en production, nous recherchons un Ingénieur Système / Data Ops pour intégrer une équipe en charge du support et de l’exploitation d’un Data Hub et d’une plateforme de Data Virtualisation. Le poste consiste à assurer le bon fonctionnement des environnements de production, à superviser les traitements de données, à coordonner les incidents et à garantir la continuité de service. Vous interviendrez sur le monitoring quotidien des flux, la gestion des incidents et des problèmes, ainsi que sur la coordination des mises en production et des changements techniques. Vous serez également amené à analyser les incidents, proposer des actions correctives et préventives et participer à l’amélioration continue des processus et des outils de supervision.
Offre d'emploi
Expert Cybersécurité Cloud et IA
VISIAN
Publiée le
Large Language Model (LLM)
OWASP
1 an
Île-de-France, France
Contexte En soutien du CISO de l'IT Production, le bénéficiaire souhaite une prestation d’accompagnement dans l’objectif d’assurer une mission d'expertise Cybersécurité orientée Cloud et IA. Connaissance indispensable des technologies Cloud Native (containers...) et IA générative (LLM, RAG, guardrails, sécurité agentique AI). Missions Accompagnement et expertise Cybersécurité dans les projets liés à l'infrastructure, et plus précisément dans le cadre de projets de type Cloud (sécurité des containers), IA Réalisation d'analyses de risques sur les solutions d'infrastructure de la production mutualisée du groupe bancaire Validation des besoins et de la baseline sécurité dans le cadre des projets d'infrastructure (fiche de sécurité digitale) Instruction Cybersécurité dans l'adoption de nouveaux standards technologiques (Cloud, IA générative, Containers, Infrastructure as Code) Promouvoir la sécurité applicative dès la conception (security by design) Participation à la rédaction et à la mise à jour de procédures Cyber sur son domaine d'expertise Compétences nécessaires Expertise sur les solutions de sécurité des containers Expertise sur les solutions de sécurité IA (LLM, RAG, guardrails, agentique) Expertise Cloud : architecture, sécurité Connaissance des outils et process de sécurisation des images et containers Bonnes connaissances des frameworks (OWASP) et des vulnérabilités sur les protocoles (ex : OAuth2, JWT, Websockets) Expérience concrète dans des contextes Cloud : offres AWS/Azure/GCP/IBM, Infrastructure as Code, images containers Expérience prouvée en analyse de risque, avec capacité à identifier les vulnérabilités, les scénarios de risques et à proposer des mitigations applicables au contexte Bon niveau d'anglais (écrit et parlé)
Offre d'emploi
Data Scientist (H/F)
QODEXIA
Publiée le
Docker
GitLab CI
MLOps
10 jours
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. MISSION GLOBALE : Notre client est un grand groupe industriel de référence dans le secteur défense & technologies. Dans le cadre du développement d'une V0 sur un projet de détection d'éléments pour le secteur Naval (analyse d'images et flux vidéos), nous recherchons un Data Scientist Senior à forte séniorité et capacité de leadership. Vous participerez activement à la phase de scoping et au cadrage des besoins IA avec les équipes métiers, tout en concevant, développant et validant des solutions algorithmiques de Computer Vision/DRI et en assurant le cycle de vie complet des modèles (MLOps) dans un environnement de sprint condensé.
Offre d'emploi
Data Engineer
Signe +
Publiée le
24 mois
40k-45k €
286-450 €
Niort, Nouvelle-Aquitaine
Mission : Un profilData ingénieur / Software ingénieur orienté Data avec une expérience significative sur Azure Databricks, python (software engineering) et PySpark. La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié. En tant que Data/Software ingénieur, le prestataire interviendra au sein d'une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes : -Conception et développement des pipelines Data et ML industrialisées et robustes o Pipelines Batch sous Azure Databricks o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU o Mise en place de mécanismes de reprise d'erreur, de traçabilité et de monitoring o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles -Développement logiciel et services o Conception et développement de packages python o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, …) o API sous Azure Function et/ou Azure Container Apps -Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d'amélioration continue -Participation active aux rituels agiles 3j/semaine sur site Compétences techniques requises : Azure Databricks PySpark Delta Lake Python
Mission freelance
Expert IA Senior (Cybersécurité) (H/F)
Freelance.com
Publiée le
Cybersécurité
IA
3 ans
Paris, France
Anglais professionnel obligatoire Objectif du besoin : Recruter un expert en intelligence artificielle capable de concevoir et déployer des solutions d’IA spécialisées, adaptées à des cas d’usage métiers précis. L’objectif est de construire une IA dédiée à l’exécution de logiques métiers spécifiques (automatisation, traitement, analyse, etc.), en intégrant les bons composants techniques (moteur IA, modèles de données, etc.). 🧠 Profil recherché : Expert IA senior (minimum 5 ans d’expérience) Capable de : Concevoir et développer des solutions IA sur mesure Mettre en place des architectures complètes (LLM, RAG, etc.) Tester, valider et industrialiser les solutions (packaging) Profil challengeant, autonome et force de proposition ⚙️ Compétences spécifiques : Expérience dans le domaine de la cybersécurité Bonne compréhension des enjeux business liés à la cyber Capacité à construire des offres de services IA “sur étagère” Maîtrise des technologies : LLM (Large Language Models) RAG (Retrieval-Augmented Generation) Capacité à vulgariser, expliquer et accompagner les équipes 🤝 Soft skills & posture : Expert opérationnel (“sachant”) Capable de : Structurer et déployer une offre de service Documenter et transmettre ses connaissances Interagir avec des interlocuteurs métiers et techniques 📌 Conditions de mission : Démarrage : ASAP Durée : Mission longue Langue : Anglais professionnel requis
Offre d'emploi
Architecte technique Sécurité AWS - Data (H/F)
AVA2I
Publiée le
Amazon S3
AWS Cloud
Data Lake
4 ans
Île-de-France, France
Dans le cadre de la mise en place et de la sécurisation d’une plateforme Data Cloud, vous intervenez sur des architectures basées sur AWS intégrant des composants Data Lake, Data Warehouse et des services de stockage type S3. L’objectif est de garantir la sécurité des accès, la protection des données et la conformité dans un environnement à forts enjeux. 🛠️ Environnement technique Cloud : AWS Stockage : Amazon S3 Data : Data Lake / Data Warehouse Sécurité : IAM (Identity & Access Management) Outils : CI/CD, Infrastructure as Code (Terraform/CloudFormation – souhaité 🚀 Missions 🔐 Sécurité Cloud Définir et appliquer les politiques de sécurité AWS Gérer les accès via IAM (rôles, policies, permissions) Mettre en œuvre les principes de least privilege ☁️ Architecture Participer à la conception d’architectures sécurisées Sécuriser les flux et le stockage de données (S3, Data Lake) Contribuer à la robustesse des plateformes Data 📊 Gouvernance Assurer la conformité (RGPD, normes internes) Mettre en place des contrôles et audits de sécurité Participer à la gouvernance des accès et des données ⚙️ Amélioration continue Automatiser les contrôles de sécurité Mettre en place du monitoring et des alertes Promouvoir les bonnes pratiques sécurité auprès des équipes
Offre d'emploi
Administrateur systèmes et réseaux H/F
HAYS France
Publiée le
32k-37k €
Strasbourg, Grand Est
Les missions sont les suivantes : Participer à la création / amélioration des offres techniques Déployer, configurer et installer les solutions techniques (matériel ou logiciel) chez les clients Diagnostiquer et résoudre les incidents des partenaires Rédiger des documentations techniques sur les interventions Accompagner les clients dans la prise en main des solutions techniques Assurer un suivi client dans le but d'apporter le plus haut niveau de satisfaction Intervenir en support sur les incidents serveurs et réseaux Résoudre les incidents techniques Opérer une veille technologique sur les dernières technologies et nouvelles versions
Mission freelance
Senior Data Analyst
CAT-AMANIA
Publiée le
Databricks
DBT
Github
1 an
100-460 €
Lille, Hauts-de-France
Au sein de l'équipe Advanced Analytics dédiée à l'économie circulaire, nous recherchons un Data Analyst spécialisé sur le business model de la Location afin de nous accompagner sur notre stratégie prix. Votre mission : transformer la donnée en levier de croissance pour nos offres d'abonnement et de location. Objectifs et livrables → Partenariat Business & Produit : transformer des problématiques complexes en opportunités actionnables et optimiser nos outils d'aide à la décision. → Stratégie Prix : analyser les mécaniques de prix et optimiser l'efficience tarifaire spécifiquement pour les offres de location → Frameworks scalables : concevoir des cadres d'analyse robuste et reproductibles pour extraire un maximum de valeur de l'écosystème rental en assurant la fiabilité des insights. → Opportunités & Signaux Faibles : Identifier et quantifier de nouveaux leviers de croissance pour nos produits ou services via l'exploration de données internes ou externes, pour anticiper les tendances du marché. → Pilotage de la Performance : Analyser les parcours clients (conversion, churn, durée des abonnements...) et la rentabilité pour aligner nos prix sur la valeur perçue. → Excellence Collective : contribuer à l’amélioration continue des standards de l’équipe
Mission freelance
Data Analyst Dataiku
BEEZEN
Publiée le
Dataiku
SQL
Tableau software
12 mois
400-550 €
Paris, France
Je recherche un Data Analyst Dataiku ayant un anglais fluent et ayant une experience en marketing Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : Reprendre et finaliser la Refonte des projets data marketing DMK Securiser et stabiliser le run Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) Construire des modèles prédictifs/scorings simples Automatiser le production de reportings mensuels pour direction Marketing Documentation Réunions de cadrage avec les métiers afin de définir les règles de gestion : Identification d'architecture et modélisation data Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés Scénarisation des flows DATAIKU Recettage des projets, correction de bugs Mise en production Analyses ad hocs Maintenance du run Analyses ad hocs Sécuriser la cohérence des KPIs produits et la qualité des données exploitées Communication auprès des métiers Responsable de la relation Marketing avec l'IT
Mission freelance
Data Engineer Senior
Comet
Publiée le
Azure
Data Lake
Pandas
24 mois
400-650 €
Paris, France
Objectifs et livrables Dans le cadre du lancement de notre nouveau projet, nous recherchons une prestation de Data Engineer senior pour concevoir et mettre en œuvre des pipelines de données dans un environnement serverless exigeant. Le prestataire Data Engineer senior doit être capable de produire, mais aussi de comprendre les enjeux métier, de cadrer les sujets en amont, de faire les bons choix de conception et de diffuser son savoir-faire au sein de la squad. Missions principales : Concevoir et développer des pipelines de données en Python Implémenter des traitements batch et des orchestrations via Azure Durable Functions Manipuler des données volumineuses, notamment au format Parquet Mettre en place des validations de schémas et des contrôles de qualité de données Assurer l’intégration avec des APIs externes Participer à la modélisation et à l’optimisation des bases Azure SQL Mettre en œuvre l’observabilité de la solution : traces, métriques, logs Industrialiser les déploiements via CI/CD • Garantir la qualité et la sécurité du code Contribuer à l’analyse des besoins et au cadrage des sujets avant implémentation Porter une réflexion de conception sur les choix techniques, les compromis et la maintenabilité Utiliser l’IA comme un levier d’ingénierie concret : accélérer l’exécution, explorer des options, challenger des choix, améliorer la qualité et gagner en efficacité, sans déléguer la réflexion ni baisser le niveau d’exigence Partager ses pratiques, expliciter ses choix et contribuer à la montée en compétence de la squad Travailler efficacement dans un environnement international, y compris en anglais sur des sujets techniques et de conception Profil recherché : Capable de comprendre rapidement les enjeux métier et de les traduire en solutions robustes et pragmatiques Capable de penser le problème avant de se focaliser sur l’implémentation Doté d’une vraie expertise d’ingénierie et de conception, au-delà de la seule maîtrise d’un langage, d’un framework ou d’une version spécifique Capable d’utiliser les outils d’IA de manière avancée, critique et pertinente, et non comme un simple générateur de code Proactif, précis et honnête sur ses capacités, ses limites et les risques associés à ses choix Capable de produire de la synthèse utile à la décision Attiré par l’immersion dans les sujets, le partage, la transmission et le travail transverse Compétences requises : Langage : Python Cloud : Expérience des Azure Functions, notamment Durable Functions v2 Capacité à récupérer et exploiter des données depuis différentes sources Azure : Data Lake, Blob Storage, Azure DB Data processing: Pandas Polars PyArrow Langues : Bon niveau d’anglais, permettant de participer de manière autonome à des échanges techniques et de conception, à l’écrit comme à l’oral La valeur attendue réside aussi dans la capacité à comprendre les enjeux, concevoir les bonnes solutions, utiliser l’IA avec discernement, expliciter les choix et faire progresser l’équipe. Compétences demandées PYTHON - Expert POLARS - Confirmé PYARROW - Confirmé PANDAS - Confirmé Fonctions Azure - Expert Niveau de langue Anglais - Courant
Mission freelance
Machine Learning Engineer – MLOps & Plateforme Data/IA
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
3 ans
Lille, Hauts-de-France
🎯 Contexte Dans le cadre du développement d’une plateforme Data & IA à l’échelle internationale , un acteur majeur renforce ses équipes afin de structurer et industrialiser ses pratiques MLOps . L’objectif est de faciliter le déploiement, l’exploitation et la scalabilité des modèles de machine learning, tout en garantissant leur intégration fluide au sein des produits digitaux. Vous interviendrez dans un environnement moderne, orienté cloud, automatisation et intelligence artificielle , incluant des cas d’usage avancés autour de l’IA générative. 🧩 Mission En tant que Machine Learning Engineer , vous accompagnez la mise en œuvre et la montée en maturité des pratiques MLOps, depuis la conception jusqu’à la mise en production des modèles. Vous intervenez sur l’ensemble du cycle de vie des applications ML, avec une forte dimension industrialisation, automatisation et performance . 🚀 Responsabilités principales1. Déploiement et exploitation des modèles ML Mettre en production des modèles de machine learning Assurer leur disponibilité, leur performance et leur fiabilité Intégrer les solutions ML dans les produits digitaux 2. Data engineering & pipelines Collecter, nettoyer et structurer les données Concevoir et orchestrer des pipelines de données Garantir la qualité et la gouvernance des données 3. MLOps & automatisation Mettre en place des pipelines CI/CD pour les modèles ML Automatiser les déploiements et les mises à jour Industrialiser les processus de développement et d’exploitation 4. Monitoring & performance Développer des outils de monitoring des modèles (performance, dérive, disponibilité) Mettre en place des indicateurs de suivi Assurer la robustesse et la résilience des solutions 5. Contribution technique & innovation Participer aux choix techniques et d’architecture Contribuer à l’adoption de pratiques avancées (MLOps, LLMOps) Être force de proposition sur les évolutions technologiques 📦 Livrables attendus Pipelines de données et de déploiement industrialisés Modèles ML déployés en production Outils de monitoring et de supervision Documentation technique Amélioration continue des pratiques MLOps 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile 🎯 Objectif Industrialiser et faire évoluer les pratiques MLOps afin de garantir des solutions ML robustes, scalables et intégrées , au service des produits digitaux et des usages métiers.
Mission freelance
Data Engineer Snowflake (h/f)
emagine Consulting SARL
Publiée le
1 mois
111 €
92000, Nanterre, Île-de-France
Nous recherchons un Data Engineer pour rejoindre une équipe dynamique. Ce rôle exige une expertise confirmée sur Snowflake et comprend le développement d'applications data pour explorer les insights et améliorer l'expérience client. Vos missions: Développement d’applications data pour explorer les insights et améliorer l’expérience client. Création de dashboards (Tableau) pour des analyses claires et pertinentes. Transformation et modélisation des données (dbt, Snowflake) en collaboration avec les data engineers. Optimisation des performances (rapidité, fiabilité des requêtes). Gestion des ressources cloud pour maîtriser les coûts. Conception UI/UX pour des interfaces intuitives et engageantes. Définition des exigences techniques pour la mise en production. Votre profil: Expérience Snowflake (obligatoire), Excellent sur python, SQL Tableau software gros plus Expérience de data engineer (minium 5 ans), capacité à prendre le lead, très bon communicant Anglais opérationnel Expérience souhaitée sur le traitement de données IA
Offre d'emploi
Alternance- Appui au management Data Science F/H
█ █ █ █ █ █ █
Publiée le
autonomie
Microsoft Excel
SQL
9 840-21 876 €
Albi, Occitanie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5638 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois