L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 440 résultats.
Offre d'emploi
Chef de projet DATA / Delivery Master DATA
DATAMED RESEARCH
Publiée le
Animation
Gestion de projet
Pilotage
12 mois
40k-65k €
450-630 €
Paris, France
Objectifs et livrables Dans le cadre de cette mission, le Delivery Master Data sera responsable de la coordination et de l’accompagnement des équipes projets afin d’assurer la bonne livraison des initiatives Data. Il occupe un rôle central à l’interface entre les équipes techniques, les chefs de projet et les parties prenantes métiers. Missions principales 1. Pilotage des projets Data Planifier et organiser les projets de bout en bout, de la phase d’étude jusqu’à la mise en production Coordonner les équipes multidisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI et mettre en place des plans d’actions correctifs si nécessaire 2. Gestion de la qualité et des délais Garantir le respect des délais et des standards de qualité Veiller à l’application des bonnes pratiques en matière de Data Governance, sécurité et conformité 3. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective…) Favoriser une culture d’amélioration continue et de collaboration 4. Communication et gestion des parties prenantes Assurer une communication fluide entre les équipes internes, les clients et les partenaires Préparer et animer les comités de pilotage et de suivi Gérer les attentes clients et accompagner les évolutions des projets 5. Optimisation des processus Identifier les axes d’amélioration des processus de delivery Mettre en place des actions d’optimisation et d’automatisation Améliorer l’efficacité opérationnelle des équipes
Mission freelance
AMOA Data Gouvernance
SMARTPOINT
Publiée le
KPI
1 an
Saint-Denis, Île-de-France
Mettre en place une organisation autour de la gestion de la donnée pour en garantir la qualité et sa bonne valorisation tout en suivant les règles de l’art en termes de data gouvernance (organisationnelle, technique, juridique etc) et d’application de la politique du Groupe sur ce périmètre. Le responsable doit comprendre les enjeux métier des données ainsi que les contraintes opérationnelles autour de ce domaine afin de déployer cette organisation chez DRC. Description détaillée des tâches qui constituent la mission: Le Responsable « Data Gouvernance » intervient plus spécifiquement sur trois missions principales : Définition d’une stratégie de gouvernance de la donnée: a. Réalisation d’un état des lieux b. Identification et catégorisation des différents périmètres de données à adresser c. Priorisation des actions à mener d. Définition d’une organisation et outils nécessaires à une gouvernance optimale des données e. Garantir la bonne sécurisation des données f. Garantir la bonne application de la politique Data SNCF pour DRC g. Garantir la conformité juridique de nos données Garantir la qualité des données: a. Mise en place de l’organisation, outils et KPI de suivi issus de la stratégie afin de garantir la qualité de la donnée b. Suivre opérationnellement les indicateurs de qualité de la donnée et mettre en place des actions de correction des données si besoin Valorisation de la donnée: a. Être le point d’entrée des métiers DRC (offres, exploitations, relations clients etc) pour répondre à des besoins via l’exploitations de la donnée b. Réalisation d ‘étude ad hoc en fonction des besoins métiers c. Etre force de proposition pour valoriser nos données via de nouvelles pratiques ou outils d. Préparer nos bases de données pour l’intégration de cas d’usage nécessitant des IA génératives
Offre d'emploi
Data scientist - (H/F)
CHARLI GROUP
Publiée le
AWS Cloud
Pandas
Python
2 ans
55k-62k €
400-550 €
Courbevoie, Île-de-France
Le Projet Rejoignez une équipe à la pointe de l'innovation pour concevoir, optimiser et industrialiser nos solutions d’Intelligence Artificielle Générative. Au cœur de nos enjeux, vous piloterez l'évolution de nos architectures RAG et de nos systèmes de recommandation pour transformer l'expérience utilisateur. Vous évoluez dans un environnement stimulant où l’expérimentation rencontre les exigences de la mise en production à grande échelle. Vos Missions : En tant qu'Ingénieur IA, votre quotidien s'articule autour de quatre piliers majeurs : 1. Architecture & Développement RAG Conception et optimisation de pipelines hybrides (BM25 + Recherche Vectorielle + Reranking). Expérimentations avancées sur les stratégies HyDE (Baseline, Sélectif, Hybride). Intégration et fine-tuning de LLM via AWS Bedrock (Claude Sonnet / Haiku). 2. Performance & Reranking Déploiement et tests de modèles de reranking (type Qwen) pour affiner la pertinence. Arbitrage constant sur le triptyque : Qualité / Latence / Coût . 3. Data Engineering & Ingestion Gestion du cycle de vie de la donnée : Chunking, génération d’embeddings (Titan) et indexation. Connexion et exploitation des sources de données ( Snowflake, S3 ). 4. Évaluation & Industrialisation Mise en place de frameworks d'évaluation ( RAGAS, DeepEval ) et suivi des métriques clés (nDCG@K, Recall, MRR). Passage à l'échelle des pipelines : robustesse, monitoring et gestion des "edge cases". Votre Stack Technique : Cloud / IA : AWS (Bedrock, Lambda, SageMaker, S3). LLM : Claude (Anthropic). Vector DB & Search : OpenSearch, FAISS. Data : Snowflake, Pandas, Python. Évaluation : RAGAS, DeepEval. Prêt(e) à relever le défi GenAI avec nous ? Postulez dès maintenant !
Mission freelance
Chef de projet Data & Digital H/F
Karma Partners
Publiée le
AWS Cloud
Azure
CMS
6 mois
400-630 €
Île-de-France, France
Au sein de l’équipe On Site Services de la Digital Factory, le chef de projet Data/Digital porte la relation privilégiée entre les équipes digitales et data. Il assure et coordonne la mise en œuvre des projets digitaux dans le respect des bonnes pratiques d’une entreprise datacentrique (identification et rationalisation des sources, réflexion autour des Core Data Model, cohérence et monitoring des flux, contribution à la mise en qualité des données...) tout en veillant à intégrer les enjeux légaux et de sécurité. Il travaillera notamment les sujets de stratégie d’exposition des données, d’intégration des données dans les applications tierce et de Gouvernance Data / Digital. Projet et Solutioning · Prendre en charge et suivre les projets B2B d’exposition et consolidation des données clients en lien avec les consommations et parcours de leurs convives · Contribuer à l’alimentation des roadmaps éditeurs en charge de systèmes d’encaissement au travers des demandes issues des interlocuteurs métier (amont) et chefs de projet déploiement (aval). · Gérer les des activités de conception, d'évolution et de maintenance corrective des applications dont il a la charge, · Oeuvrer à l’amélioration continue du niveau d'industrialisation du déploiement des solutions et du niveau de supervision du parc. Se positionner en référent technico/fonctionnel des systèmes d'encaissement vis-à-vis de ses pairs (architecte, delivery lead, product owner) et garantir la bonne intégration des outils au sein du SI Comitologie · Porter et animer la gouvernance projet (copil et coproj) avec les éditeurs · Porter la relation avec les équipes connexes à la Digital Factory (notamment sécurité et data) et identifier / gérer les impacts dans le cadre des projets et du run · Porter la relation avec les équipes légales et achats pour poser les bases/faire évoluer les contrats éditeur · Identifier/mitiger ou escalader les risques inhérents aux projets
Mission freelance
Data Engineer GCP Airflow (H/F)
ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
12 mois
380-420 €
Paris, France
Data Engineer GCP/Airflow – (Freelance) Mission longue - Démarrage ASAP Nous recrutons pour un client majeur du secteur de la construction et des infrastructures , dans le cadre du renforcement de ses équipes data. Mission freelance de 12 mois minimum (renouvelable), démarrage ASAP 2 jours de télétravail flexible et Localisation Ligne 14 Profils juniors acceptés, 1 an d'expérience min. (stage, alternance, première expérience compris) Formation Bac +5 min. requise Contexte & mission Vous interviendrez sur des outils liés à la gestion de données internes, avec notamment : Analyse et traitement de logs Identification de dysfonctionnements Intégration et transformation de données Alimentation de tables BigQuery Support sur des outils internes (Dataiku, tableaux de suivi…)
Mission freelance
Directeur de Projet - Mainframe
CONCRETIO SERVICES
Publiée le
COBOL
Data management
12 mois
400-600 €
Gironde, France
Dans le cadre de la transformation de son système d'information, notre client — grand compte — recherche un Directeur de Projet expérimenté pour piloter en transverse le domaine Référentiel (Tiers, Contrats, Produits). Le prestataire intégrera la DSI et assurera un rôle stratégique à l'interface des équipes métiers, des architectes et des équipes de delivery, dans un contexte de modernisation d'un patrimoine applicatif legacy significatif. Missions principales Structurer et piloter les actions du schéma directeur du domaine Référentiel Sécuriser les décisions d' urbanisation autour des objets métiers clés (Tiers, Contrats, Produits) Piloter les études d'opportunité et de faisabilité en lien avec les enjeux de modernisation Piloter les contributions DSI aux études conduites par la MOA Expérimenter un POC IA appliqué à l'analyse d'impact et à la rétro-documentation (LLM, RAG, extraction de connaissance) Assurer le reporting et la gouvernance auprès des instances DSI et métiers Organiser et coordonner le projet de migration du patrimoine Référentiel Piloter le plan de gestion de la dette technique sur le périmètre des ID, en soutien des managers Environnement technique SI legacy : applications COBOL , CICS / DB2 / MQSeries SI distribués et architectures hybrides Enjeux MDM / Data Management Architecture d'entreprise et urbanisation du SI Expérimentation IA générative (LLM, RAG, knowledge extraction)
Offre d'emploi
Data Steward
DATAMED RESEARCH
Publiée le
Collibra
Microsoft Power BI
MySQL
24 mois
45k-55k €
400-550 €
Paris, France
Contexte Intervention au sein d’une équipe Data/Gouvernance, avec des enjeux forts autour de la qualité de la donnée , de la conformité et de la fiabilisation des référentiels métiers . Missions principales Assurer la qualité, la cohérence et la fiabilité des données Mettre en place et suivre les règles de gestion et de contrôle de la donnée Définir et maintenir le data catalog et les référentiels métiers Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts…) Identifier et analyser les anomalies de données Mettre en place des indicateurs de qualité (KPI Data Quality) Participer aux initiatives de gouvernance des données (politiques, standards, process) Accompagner les métiers dans la bonne utilisation des données
Offre d'emploi
Développeur Python Data (H/F)
DATACORP
Publiée le
40k-45k €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data, vous intervenez sur : La mise à jour et la gestion de données (process existants ou à documenter) La maintenance évolutive et corrective des applications Le développement de nouvelles fonctionnalités La collaboration étroite avec les équipes internes (daily, sessions de travail) ️ Stack technique Obligatoire : Python 3.x (maîtrise avancée) Pandas SQL (SQL Server / requêtes avancées) Apprécié : FastAPI Django Pydantic Environnement : GitHub VS Code Profil recherché Minimum 2 ans d’expérience en développement Python orienté Data Solide expérience en manipulation et analyse de données Français courant obligatoire Qualités attendues Autonomie Rigueur Fiabilité Adaptabilité Organisation Collaboration quotidienne avec les équipes Environnement structuré avec échanges réguliers
Offre d'emploi
Analyste SOC H/F
Le Groupe SYD
Publiée le
Réseaux
12 mois
30k-33k €
320-370 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Analyste SOC H/F 📍 Lieu : Nantes (44) 🏠 Télétravail : À définir selon l’organisation 📝 Contrat : Freelance 👉 Contexte client : Tu rejoins un grand acteur national du secteur des services et de la banque , au sein d’un centre opérationnel de sécurité (SOC) dédié à la supervision 24/7 des infrastructures critiques. L’environnement est complexe, fortement sécurisé et multi‑technologies , couvrant des périmètres Réseaux, Sécurité, Systèmes et Services applicatifs. L’enjeu principal est d’assurer la détection, l’analyse et le traitement des incidents de sécurité , tout en garantissant la continuité de service. En tant qu’ Analyste SOC , tu interviens dans un contexte de supervision continue et tu auras pour missions de : Assurer la supervision 24/7 des infrastructures Sécurité, Réseaux, Systèmes et Applicatives . Analyser les événements de sécurité : diagnostic, évaluation des impacts et qualification avant ouverture d’incident. Qualifier, traiter et résoudre les incidents de sécurité de niveau 1 , en lien avec les opérateurs et équipes de maintenance. Appliquer les procédures et schémas d’escalade en fonction de la criticité des alertes. Réaliser des opérations réseaux et services en heures ouvrées et assurer les interventions N1 en HNO . Participer à la prise d’appels utilisateurs en cas de débordement du centre d’appels. Contribuer à la mise en œuvre et au maintien des Plans de Reprise d’Activité (PRA) dans un contexte 24/7. 🧰 Stack technique : Réseaux, Sécurité, supervision 24/7, gestion d’incidents, processus ITIL, infrastructures réseaux et systèmes, environnements de sécurité
Offre d'emploi
Expert Data / IA – Prévision des ventes H/F
DAVRICOURT
Publiée le
Intelligence artificielle
50k-55k €
Arras, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Expert Data / IA – Prévision des ventes pour l'un de nos clients. Vous interviendrez sur un projet stratégique sur site à proximité d'Arras ou en full remote. À ce titre, vos missions quotidiennes seront les suivantes : - Analyser les mécanismes actuels de prévision des ventes et les sources de données existantes ; - Évaluer la qualité, la structure et la fiabilité des données (ERP, historiques, tables métiers) ; - Identifier les variables clés influençant les ventes (saisonnalité, contraintes logistiques, etc.) ; - Concevoir et développer des modèles de prévision (statistiques et machine learning) ; - Tester, comparer et optimiser les modèles en fonction des spécificités métiers ; - Industrialiser les modèles (automatisation, intégration SI, pipelines data) ; - Structurer les flux de données et garantir la robustesse des solutions ; - Mettre à disposition des outils de restitution et faciliter leur adoption par les équipes métiers ; - Accompagner les équipes et proposer des axes d'amélioration à fort impact business.
Mission freelance
Data Analyst – AI Governance
Okara
Publiée le
Collibra
Google Cloud Platform (GCP)
Looker Studio
9 mois
Lille, Hauts-de-France
🎯 Okara cherche un Data Analyst – AI Governance & Insights L’enjeu : Devenir la boussole stratégique de l'IA chez l'un de nos clients leaders mondiaux du retail. En tant que consultant·e Okara, tu rejoins l'équipe IA Transverse de notre client pour structurer l'adoption de l'IA à l'échelle internationale. Ton terrain de jeu ? L' AI plateforme , l'outil critique qui permet de piloter la valeur, de standardiser les processus et d'outiller toutes les initiatives IA. 🚀 Ton rôle Tu es le moteur de la refonte de l'AI: l'enjeu c'est de quitter l'artisanat des feuilles de calcul pour bâtir une gouvernance industrialisée et intégrée. Concrètement, tu vas : Réinventer le Workflow : Piloter la migration vers Collibra . Tu ne te contentes pas de paramétrer, tu dessines les processus de demain (règles de validation, alertes, intégration aux SI existants). Transformer la donnée en Insights : Analyser l'existant pour identifier les axes d'amélioration et faire évoluer la dataviz sous Looker . Optimiser la tuyauterie (Data Engineering) : Collaborer à la refonte du DBT pour garantir des flux de données fluides et fiables entre les sources et la restitution. Acculturer à l'international : Être le pont entre les AI Leaders mondiaux et la technique. Tu vulgarises et traduis les besoins métiers en solutions robustes.
Mission freelance
Data Engineer
Orcan Intelligence
Publiée le
DBT
Docker
ETL (Extract-transform-load)
3 mois
400-500 €
Paris, France
Dans le cadre du développement de solutions data à l’échelle de l’entreprise, nous recherchons un Data Engineer Senior. Vous interviendrez sur la conception et la mise en œuvre de solutions de data warehouse, en manipulant de grands volumes de données structurées et non structurées. Vous collaborerez étroitement avec les architectes data et les équipes métier afin de traduire les besoins en solutions techniques robustes et performantes. Missions principales Traduire les besoins métier en spécifications techniques Développer des flux ETL (outils natifs type TPT, SQL et outils tiers comme DBT) Rédiger et optimiser des requêtes SQL complexes et scripts shell Concevoir et développer des pipelines de données (batch et streaming) Mettre en place des solutions d’ingestion de données à faible latence Définir et implémenter des processus d’intégration dans l’environnement IT Superviser les performances et recommander des optimisations Rédiger et maintenir la documentation technique Interagir avec les clients pour affiner les besoins Supporter les équipes projet et delivery
Offre d'emploi
Architecte Master Data Management F/H
COEXYA
Publiée le
50k-60k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE Dans le cadre de nos activités, nous développons pour nos clients des solutions dédiées à la gestion de la donnée cliente : améliorer la qualité de la donnée client à travers sa fiabilisation, son dédoublonnage et sa diffusion à travers un référentiel unifié. Pour accompagner la croissance de notre entité spécialisée dans la transformation digitale, nous recherchons notre futur Architecte MDM (Master Data Management) F/H. CE QUE L'ON VOUS PROPOSE Vous participez à la construction de l'offre MDM, en particulier sur les aspects techniques et technologiques. Vous intervenez sur les phases clés associées à la construction d'un projet de MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation (4 à 6 consultants en moyenne selon projet) : - Vous concevez et préconisez les solutions techniques, - Vous menez des ateliers techniques avec les clients, - Vous intervenez sur différentes phases du projet depuis l'avant-vente jusqu'à leur utilisation en production - Vous encadrez les équipes techniques (accompagnement, transfert de compétences, audit des réalisations).
Offre d'emploi
Data Engineer expérimenté – Plateforme Data (H/F)
Argain Consulting Innovation
Publiée le
Big Data
Data Warehouse
IBM DataStage
12 mois
40k-45k €
450-500 €
Nantes, Pays de la Loire
Contexte : Dans le cadre de l’évolution et de la modernisation d’une plateforme data stratégique, nous recherchons un Data Engineer expérimenté pour renforcer une équipe d’experts. Vous interviendrez dans un environnement agile et collaboratif, aux côtés d’ingénieurs data confirmés, avec un encadrement produit et méthodologique, favorisant l’excellence technique et l’innovation. Mission : La mission s’inscrit dans une dynamique ambitieuse autour de plusieurs axes : Build : Conception et développement de nouvelles solutions data Run : Maintien en conditions opérationnelles et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Modernisation : Évolution vers des architectures data modernes Responsabilités : Développer des traitements ELT (principalement à destination d’un datawarehouse) Concevoir et maintenir des templates ELT Participer à la définition de la feuille de route technique de migration ETL vers ELT Accompagner les équipes utilisatrices des solutions data Contribuer à la documentation des solutions du périmètre Garantir le bon fonctionnement du plan de production et le respect des engagements de service Identifier et proposer des optimisations dans une logique d’amélioration continue Partager ses connaissances et être force de proposition Attendus Développer des traitements ELT xDI principalement à destination du Datawarehouse Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Accompagner les développeurs Participer à la Documentation de l'ensemble des solutions Assurer le bon fonctionnement du plan de production et l'ensemble de nos produits et solutions en respectant les engagements de service Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production Partager ses connaissances avec ses pairs et être force de proposition
Offre d'emploi
Data intégration Senior (H/F)
1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes
12 mois
Paris, France
Contexte : Dans le cadre de la construction du datalake des équipes Group Digital & IT International Cybersécurité de notre client, nous recherchons un(e) Consultant Data Integration Senior . Missions : Organiser et piloter votre activité ainsi que celle d’un consultant junior Garantir le respect des délais, de la qualité de livraison et des bonnes pratiques Assurer une communication claire et régulière sur l’avancement Concevoir et implémenter les flux d’ingestion de données (API, SFTP, DB) Développer et orchestrer les pipelines avec Azure Data Factory Alimenter et structurer le datalake dans Snowflake Concevoir des modèles de données (tables de faits, dimensions) Préparer les données pour les usages analytiques et le reporting Collaborer à la restitution via Power BI Participer à la mise en place de futures briques techniques telles que Apache Airflow (via Astronomer) et DBT Contribuer à l’amélioration continue de l’architecture data Comprendre les enjeux cybersécurité (gestion des assets, conformité, outils de sécurité) Exploiter les données issues des outils cyber pour produire des indicateurs pertinents Compétences techniques: Expertise sur Snowflake (modélisation, performance, structuration) Maîtrise de Azure Data Factory Bonne expérience en modélisation décisionnelle (schémas en étoile : faits/dimensions) Expérience en intégration de données multi-sources (API, SFTP, bases de données) Bon niveau en SQL Appréciées Expérience avec Power BI Connaissance de Apache Airflow (ou Astronomer) Notions ou expérience avec DBT Connaissance des environnements cloud Azure
Offre d'emploi
Data Scientist
R&S TELECOM
Publiée le
Agent IA
Google Cloud Platform (GCP)
Python
6 mois
Corenc, Auvergne-Rhône-Alpes
Contexte de la mission : Pour notre client dans le domaine bancaire, nous recherchons un profil de Data Scientist Tâches à réaliser : Piloter et réaliser des projets de data sciences / intelligence artificielle directement avec les métiers, sous supervision du tech lead data scientist (data préparation, modélisation, data visualisation, normes gestion de projet) Coacher des étudiants dans la réalisation de POC Réaliser des actions d’acculturation et d’animation Accompagner les métiers à la réalisation de prompt, déploiement de LLM, agents/assistants Participer à la mise en place de l’environnement technique (sous GCP notamment) et des méthodes de gestion de projet Réaliser la Maintenance en Condition Opérationnelle des cas d’usages DS/IA industrialisés Collaborer et participer activement à la vie du service et du département et à l’amélioration continue de son fonctionnement Les actions réalisées s’inscrivent dans un cadre règlementaire et normatif, tant d’un point de vue sécurité des systèmes d’information que conformité, RGPD, IA Act et éthique La mission implique également une compréhension et une traduction fonctionnelle des activités et processus bancaires, une connaissance générale des produits et services bancaires serait donc un plus Compétences recherchées : Obligatoires : · Python · SQL · Capacité à animer des ateliers, à fédérer autour des sujets Data/IA, à vulgariser pour des publics néophytes Optionnelles : · Expérience sur GCP · Expérience en chef de projet Expérience nécessaire : Minimum 5 années d’expérience en data science (ML, DL, LLM) (profil ITS : Hors grille) Langues : Français Date de démarrage : ASAP Localisation : Locaux du client situés à Corenc (Grenoble) Possibilité d’interventions hors site Client : OUI (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : OUI (Environ une fois par mois) Autre matériel requis : NON
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Vue CV
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Offre fictifs et offre non sérieuses
- Retour d'expérience démission-reconversion
5440 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois