Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 147 résultats.
Freelance
CDI

Offre d'emploi
Data Scientist - Domaine Paiements & Big Data (GCP, Python, ML/NLP)

CAT-AMANIA
Publiée le
Git
Google Cloud Platform (GCP)
Python

6 mois
40k-71k €
500-610 €
Île-de-France, France
Au sein d'un grand groupe bancaire, intégré au pôle Paiement, vous agissez en tant que référent technique et fonctionnel sur des projets décisionnels et Big Data. Vous faites le lien entre les besoins métiers et les solutions technologiques innovantes basées sur l'Intelligence Artificielle et le Cloud. Vos missions principales : Gestion de projet & Analyse : Collecter les besoins auprès des métiers, animer des groupes de travail et rédiger les spécifications fonctionnelles et techniques. Data Engineering & Architecture : Modéliser les données et développer des reportings. Vous assurez l'exploration des données et contribuez à l'architecture sur le Cloud. Data Science & Machine Learning : Concevoir et implémenter des algorithmes de Machine Learning (spécifiquement en classification et NLP - Traitement du Langage Naturel). Delivery & Qualité : Assurer la recette, la mise en production (CI/CD) et garantir la qualité des livrables. Accompagnement : Former les utilisateurs et vulgariser la donnée via une communication visuelle efficace. Environnement Technique & Méthodologique : Cloud & Big Data : Expertise Google Cloud Platform indispensable (BigQuery, Airflow, Vertex AI/Notebook Jupyter). Langages & Libs : SQL, Python (Pandas, Scikit-learn, TensorFlow). DevOps/Delivery : Git, Jenkins, Cloud Build. Méthodologie : Agilité (Scrum, Kanban).
Freelance
CDI

Offre d'emploi
Product Owner IA Banque - LILLE (H/F)

STORM GROUP
Publiée le
AI
Chatbot
RAG

3 ans
54k-60k €
550-590 €
Lille, Hauts-de-France
• Vision & Stratégie Produit IA : Porter la vision produit des solutions d’IA en étroite collaboration avec les équipes métier. Cela inclut d’identifier les opportunités d’usage de l’IA au service du Risque, du Paiement, du Digital et des autres lignes métiers, et de prioriser les projets en conséquence (focus valeur et faisabilité). • Gestion du Backlog & Priorisation : Être garant de la priorisation des initiatives Data Science/IA. Vous traduisez les besoins métier en features et user stories, alimentez et maintenez le backlog, et arbitrez les priorités en fonction de la valeur ajoutée attendue, du feedback utilisateur et des contraintes (réglementaires, techniques, ROI). Votre objectif est de maximiser l’impact business de chaque sprint livré. • Pilotage du Delivery Agile : Piloter la delivery des projets IA en méthodologie agile. Vous organisez et animez les cérémonies Scrum/Kanban (planification, revues, démonstrations, rétrospectives), suivez l’avancement des développements, et assurez la levée des obstacles en coordination avec les autres départements. Vous veillez au respect des engagements de qualité, budget et délais, et communiquez de manière proactive sur l’avancement auprès des sponsors. • Coordination Métiers–Data–IT : Jouer le rôle d’interface et de facilitateur entre les équipes Data Science, les équipes IT (architectes, MLOps, sécurité…) et les métiers sponsors. Vous travaillez en collaboration étroite avec les experts métier pour co-construire les solutions et favoriser leur adoption, tout en intégrant les contraintes techniques avec les équipes Data/IT pour une implémentation fluide. • Crédit & Risque (Scoring) – Use cases « Machine Learning » traditionnels : Sur ce pilier clé, vous pilotez les évolutions des modèles de scoring crédit (scoring d’octroi, scores comportementaux). En lien direct avec les équipes Risque et Validation, vous concevez et suivez les projets d’optimisation des scores existants et le développement de nouveaux modèles, en explorant des approches innovantes (par ex. nouvelles données, algorithmes avancés). Vous vous assurez que les modèles délivrés contribuent à la stabilité du coût du risque (suivi des KPIs de performance) et respectent les exigences réglementaires. Vous veillez également à la mise en production et au monitoring de ces modèles (détection de dérive, recalibrage), en collaboration avec les Data Scientists et Analystes Risque. • IA Générative & Agents : Vous explorez et déployez les cas d’usage liés à l’IA Générative pour transformer nos processus internes et la relation client. Concrètement, vous pilotez des projets d’agents IA (chatbots avancés, assistants cognitifs, systèmes à base de LLM, approches RAG – Retrieval-Augmented Generation). Par exemple, vous pourrez lancer des MVP d’agents pour automatiser l’analyse de documents complexes, assister les équipes internes (Audit, Marketing…) ou enrichir le support client. Vous définissez les objectifs et indicateurs de succès de ces projets, supervisez les étapes de prototypage et de déploiement en production, et veillez à mettre en place des architectures agentiques robustes pour ces solutions. Vous aurez aussi à cœur d’évaluer et optimiser les performances de ces agents (cohérence des réponses, pertinence, diversité), en vous appuyant sur des méthodologies de pointe (par ex. LLM as a Judge pour la qualité des réponses). L’enjeu est de concrétiser les promesses de l’IA générative tout en garantissant un usage responsable et efficace pour l’entreprise.
Freelance
CDI

Offre d'emploi
Solution Delivery Engineer / Ingénieur Delivery & Paramétrage

ANDEMA
Publiée le
XML

1 an
36k-60k €
100-400 €
Paris, France
Contexte Éditeur de logiciels en intelligence artificielle et data science , nous accompagnons de grands acteurs du secteur bancaire sur des projets critiques, notamment liés à la lutte contre la fraude . Missions Piloter le déploiement, le paramétrage et l’intégration des solutions logicielles chez les clients Assurer l’intégration avec les systèmes existants (API, Kafka, etc.) Analyser les besoins fonctionnels et techniques et rédiger les spécifications Paramétrer la solution et accompagner les phases de recette Garantir la qualité des livraisons et le respect des plannings Être l’interlocuteur technique privilégié des clients et assurer leur accompagnement Collaborer avec les équipes internes (Produit, R&D, Support) paramétrage de fichiers XML 2 jours de présentiel par semaine (Dont le jeudi) Localisation : ile de france ASAP
Freelance

Mission freelance
PM / PMO Data & Digital Transformation

Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)

12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
CDI

Offre d'emploi
Développeur Back-End (Python) H/F

█ █ █ █ █ █ █
Publiée le
Django
Flask
Python

Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Product Engineer IA / ML

Gentis Recruitment SAS
Publiée le
Deep Learning
Large Language Model (LLM)
Machine Learning

12 mois
Paris, France
Contexte de la mission Dans le cadre de ses initiatives visant à améliorer la performance énergétique et à accélérer la décarbonation de ses activités, le client recherche un Product Engineer IA / ML . La mission s’inscrit au cœur des activités Énergie (bâtiments, sites industriels, réseaux, production) et consiste à accompagner les Business Units dans la conception, le développement et l’industrialisation de solutions d’intelligence artificielle à fort impact opérationnel. Le prestataire interviendra comme acteur clé entre les équipes métier, Data Science et IT , avec un objectif clair de passage à l’échelle et de déploiement multi-BU. 2. Objectifs de la mission Développer et déployer des solutions IA/ML industrielles visant l’optimisation de la performance énergétique et la réduction de l’empreinte carbone Transformer des problématiques opérationnelles complexes en produits IA robustes, maintenables et prêts pour la production Garantir l’intégration des solutions dans la plateforme data du Groupe et leur réplicabilité à l’échelle des Business Units Assurer un impact métier mesurable en lien direct avec les enjeux énergétiques et environnementaux 3. Missions et responsabilités Le Product Engineer IA / ML sera en charge de : Concevoir, développer et déployer des solutions IA/ML scalables, du POC à la production Collaborer étroitement avec les équipes Data Science et IT pour assurer la faisabilité technique, la qualité des données et l’industrialisation Construire et maintenir une bibliothèque de composants IA/ML explicables et réutilisables Intégrer les solutions dans la plateforme data Groupe pour un déploiement multi-BU Orchestrer la livraison end-to-end des cas d’usage, en garantissant robustesse, performance et traçabilité Produire une documentation complète (blueprints, guides d’implémentation, bonnes pratiques) afin de faciliter la réplication des solutions Favoriser la collaboration transverse entre Business Units, équipes Data, IT et fonctions centrales Contribuer au partage de connaissances et à la montée en compétence des équipes internes 4. Compétences requisesCompétences techniques IA générative et agents : Expert Machine Learning & Deep Learning : Expert MLOps et industrialisation des modèles : Confirmé Data Engineering : Avancé Efficacité énergétique et enjeux de décarbonation : Avancé Compétences transverses Capacité à transformer des enjeux métier en produits IA industrialisables Forte culture produit et orientation impact mesurable Capacité à travailler en environnement complexe et multi-acteurs Autonomie, rigueur technique et sens du delivery
Alternance
CDI

Offre d'emploi
data scientist, concepteur-développeur bi F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning
DevOps
Docker

Croissy-Beaubourg, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Service Owner Data Platforms (Braincube / Dataiku)

Signe +
Publiée le
Dataiku

12 mois
500-550 €
Malakoff, Île-de-France
Objectif de la mission Garantir le niveau de service, la gouvernance et le pilotage opérationnel (run) des plateformes Braincube et Dataiku, en assurant la performance, la conformité et l’amélioration continue du service. Responsabilités principales Maintenir les standards de service, assurer la conformité licences et suivre les usages via des KPIs Gérer incidents, demandes et changements, assurer la communication interne et utilisateurs Définir et suivre les SLA, piloter la performance du service et les indicateurs associés Structurer la roadmap, identifier les améliorations continues et piloter le plan de charge Garantir la résilience des plateformes (évolutions, obsolescences) et la sécurité des données Piloter les activités opérationnelles multi-sites (France / Inde / éditeurs / prestataires) Assurer l’interface avec les équipes IT et data pour faciliter l’exploitation du service Produire la documentation de service (guides, onboarding, bonnes pratiques) Environnement technique Braincube, Dataiku AWS (S3, EC2, EKS), déploiements sécurisés Connaissances ML Ops / Data Science / IA / IA générative Architecture SI / data, gouvernance data, exploitation et performance Sécurité et conformité (RBAC, chiffrement, logging, RGPD) Livrables attendus Reporting KPI et suivi des SLA Guides de bonnes pratiques et supports de formation Documentation de service et onboarding Plan de montée en compétences et roadmap d’amélioration Profil recherché Service Owner / Service Manager senior (8+ ans) Expérience pilotage run et gouvernance de plateformes data / analytics Solide compréhension des environnements cloud AWS et des enjeux data
Freelance

Mission freelance
Data Analyst experimenté - Nantes

VISIAN
Publiée le
SQL

3 ans
400 €
Nantes, Pays de la Loire
Contexte Au sein d’une entité Data d’un grand groupe bancaire, la mission s’inscrit dans une équipe chargée de la conception, de la fabrication et de la mise à disposition de jeux de données à destination de multiples entités internes. L’activité s’appuie sur plusieurs plateformes décisionnelles et entrepôts de données et s’exerce dans un cadre réglementaire et sécuritaire strict (protection des données, conformité, éthique d’usage). L’équipe intervient notamment pour des besoins d’audit, de conformité réglementaire, d’analyses exploratoires ou de soutien à des projets métiers (innovation, data science, nouveaux produits). Missions Cadrage et analyse des besoins Recueillir et analyser les demandes d’extraction ou de mise à disposition de données Accompagner les utilisateurs dans la formalisation des besoins et des règles de gestion associées Réaliser les analyses d’impact sur les systèmes existants Identifier les sources de données pertinentes et les outils d’extraction adaptés Production et livraison des jeux de données Concevoir et piloter la fabrication de jeux de données ou requêtes d’extraction Garantir la qualité, la cohérence et l’exploitabilité des données livrées Organiser la phase de recette avec les équipes métiers et utilisateurs Contribuer à l’industrialisation de certains cas d’usage Gouvernance, conformité et sécurité Veiller au respect des contraintes réglementaires et de protection des données Mettre en œuvre les contrôles d’accès et d’usage appropriés Collaborer avec les acteurs de gouvernance Data pour valider l’exploitabilité et la diffusion des données Coordination et communication Assurer l’interface avec les entités demandeuses et les parties prenantes internes Animer des ateliers d’étude multi-acteurs Promouvoir l’offre de services de l’équipe et produire les supports associés Mettre en place et suivre les indicateurs de performance du service Capitalisation et documentation Structurer et maintenir la documentation des dossiers traités Contribuer au partage de connaissances et à la montée en compétence collective Environnement technique Bases de données relationnelles et décisionnelles SQL (dont environnements décisionnels) Outils de reporting et de BI Outils d’extraction et de traitement de données Outils de gouvernance et de documentation de la donnée Outils bureautiques avancés Informations complémentaires Mission en environnement fortement réglementé Interactions fréquentes avec des interlocuteurs variés (métiers, data, gouvernance, conformité) Accès à des données sensibles nécessitant le respect strict des procédures de sécurité
Freelance
CDI

Offre d'emploi
Data Scientist

VISIAN
Publiée le
Machine Learning
Python
SQL

1 an
40k-45k €
140-480 €
Paris, France
Mission La mission d'une institution financière majeure est de contribuer à une croissance responsable et durable par un financement de l'économie dans le respect des plus hauts standards éthiques, en particulier dans les domaines de l'anti-blanchiment d'argent, de la lutte contre le terrorisme, et de la lutte contre la fraude et l'ingénierie sociale. L'optimisation des services opérationnels via la science des données représente une opportunité majeure pour notre entreprise de se démarquer sur le marché. Descriptif du Poste Assurer la recherche de données et la mise au point de modèles performants afin d'assister de nombreuses équipes de la banque commerciale dans leur effort d'identification et d'analyse des comportements suspects. Déployer et intégrer ces modèles dans les infrastructures et flux de travail de l'entreprise en assurant un impact positif et maîtrisé. Profil Recherché Nous cherchons un profil capable de développer et intégrer des solutions avancées de data science appliquée à des données structurées en priorité. Des compétences en traitement du langage naturel (NLP traditionnelle, voire GenAI) seraient un plus permettant de proposer à nos clients internes des fonctionnalités différenciantes et l'évolution en interne du profil vers d'autres projets. Ce profil doit connaître en détail le fonctionnement de nombreux algorithmes d'apprentissage, supervisé comme non supervisé, et être en pleine possession des méthodologies d'évaluation de modèles. Idéalement, le candidat devrait avoir une expérience pratique dans des projets similaires et démontrer une capacité à traduire un problème concret en problème mathématique au moyen des données. Une excellente maîtrise de Python et de SQL est en outre nécessaire. Des compétences de type "soft skills" seront également incontournables, comme la gestion de projet, une écoute de qualité avec les interlocuteurs métier ainsi qu'une bonne communication, et un goût de la collaboration et le partage des connaissances, notamment avec les autres data scientists et les équipes techniques et opérationnelles (MLE, MLOPS, OPS).
CDI

Offre d'emploi
Data Scientist Expérimenté F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Deep Learning
Git

Le Plessis-Robinson, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data scientist H/F

█ █ █ █ █ █ █
Publiée le
Python
Scikit-learn
Tensorflow

Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Business Analyst - IT & Recherche Financière

STHREE SAS pour HUXLEY
Publiée le

12 mois
500-650 €
75001, France
Missions principales Analyse & Recueil du besoin Recueillir, analyser et formaliser les besoins des équipes de recherche financière. Rédiger les cahiers des charges et spécifications fonctionnelles. Assurer un rôle de référent data et outils auprès des utilisateurs finaux. Gestion de la donnée & outils financiers Gérer, contrôler et optimiser les flux de données provenant des plateformes financières (FactSet, Bloomberg, Refinitiv…). Apporter un support de niveau 2 sur les outils et plateformes de recherche. Participer à la définition et à la mise en œuvre des évolutions fonctionnelles. Contribution aux projets IT Participer aux projets transverses : migrations de systèmes, intégration de nouvelles sources, automatisation et optimisation des workflows. Interagir avec les équipes IT, Data Science et Infrastructure pour assurer la cohérence des solutions. Suivre la mise en production des correctifs et améliorations. Compétences requises Compétences techniques Très bonne connaissance des bases de données financières : FactSet, Bloomberg, Refinitiv, S&P Capital IQ. Maîtrise des concepts liés aux marchés financiers, produits, analyses Equity et ESG. Très bonne expertise SQL (MS SQL Server). Connaissance des technologies et usages IA appliqués aux applications métiers (intégration, automatisation…). Compétences fonctionnelles Excellentes capacités d'analyse, de synthèse et de formalisation. Capacité à comprendre les besoins métiers liés à l'analyse equity/ESG. Aisance à travailler en interface avec plusieurs équipes (métier, IT, Data). Solide expérience dans la manipulation, structuration et fiabilisation de données financières. Compétences bonus appréciées Connaissance de RMS Partners. Connaissance de Mailgun. Profil recherché Bac +5 minimum en finance, ingénierie financière, data ou équivalent. Expérience confirmée sur un poste similaire (Business Analyst / Data / Recherche financière). Capacité à travailler en mode projet dans un environnement exigeant et transverse. Rigueur, autonomie, sens du service et excellente communication.
Freelance

Mission freelance
Product Owner Data & GenAI (DataLab)

Signe +
Publiée le
GenAI

12 mois
400-560 €
Vélizy-Villacoublay, Île-de-France
Contexte Un DataLab transverse structure et pilote des produits Data (BI, Analytics, Data Science) tout en développant des initiatives en IA Générative. L’enjeu est double : Industrialiser un portefeuille de produits Data Structurer et accélérer les usages GenAI à l’échelle de l’organisation Objectif principal Piloter le portefeuille Data comme un véritable produit et animer la stratégie GenAI. Rôle proche d’un Lead Product Data / Head of Data Product , pas d’un PO “exécutant”. ResponsabilitésPilotage produits Data Identifier et formaliser les besoins fonctionnels Construire et maintenir la roadmap Data Prioriser selon valeur métier Arbitrer capacité vs demandes Animer comités produits/projets Suivre adoption et valeur délivrée Interface principale entre métiers, IT et équipes Data Structuration GenAI Recenser et structurer les cas d’usage GenAI / POC Identifier les opportunités à forte valeur business Mettre en visibilité les solutions existantes Promouvoir les usages IA auprès des métiers Assurer une veille technologique continue (LLM, RAG, outils IA) Animer ateliers, communautés et acculturation Compétences attendues Product management confirmé Pilotage de portefeuille / roadmap stratégique Culture Data / BI solide Connaissance IA générative (LLM, RAG, cas d’usage métier) Capacité à structurer des initiatives transverses Soft skills clés Leadership d’influence Vision stratégique Forte autonomie décisionnelle Capacité à embarquer des équipes non techniques Esprit entrepreneurial
Freelance

Mission freelance
Data Engineer Nantes/pa

WorldWide People
Publiée le
Scripting

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
Ingénieur Data

JobiStart
Publiée le
AI
AWS Cloud
Cloud

1 an
400-550 €
Île-de-France, France
Concevoir, développer et opérer des pipelines de données robustes et évolutifs au sein d’environnements Cloud Mettre en place des mécanismes d’ingestion, de transformation et d’exposition de données provenant de sources multiples, structurées ou non Exploiter les services Cloud pour l’orchestration des flux, le stockage et le calcul distribué Développer des composants Data orientés usages analytiques et Intelligence Artificielle Participer à la mise en production et à l’industrialisation de modèles de Machine Learning et d’IA générative Optimiser la performance, la fiabilité et la maintenabilité des traitements et des pipelines Définir et appliquer des règles de qualité, de cohérence et de normalisation des données Contribuer à la structuration des référentiels data et aux démarches de gouvernance Produire et maintenir la documentation technique et fonctionnelle des flux et modèles de données Accompagner les équipes métiers et analytiques dans la formalisation des besoins Data Animer des ateliers de cadrage afin de traduire les usages fonctionnels en solutions techniques Jouer un rôle d’interface entre les équipes IT, Data Science et utilisateurs finaux Automatiser les déploiements et les traitements via des pipelines CI/CD Contribuer à la conception et à la sécurisation des architectures Data Cloud Intégrer les traitements selon les standards ETL/ELT et les bonnes pratiques DevOps
147 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous