L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 789 résultats.
Mission freelance
Data Engineer / Expert Big Data – Cloud & On-Prem - Certifié ITIL V4 Obligatoire
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Migration
6 mois
750-800 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe DATA/IA d’une vingtaine de personnes pour accompagner la migration des projets vers des infrastructures modernes on-prem et cloud public (AWS / GCP) ✅ Accompagner les projets dans leur migration vers des architectures modernes (AWS / GCP / on-prem). ✅ Participer à la conception et à la mise en œuvre des infrastructures Data (en lien avec les CloudOps & Architectes). ✅ Paramétrer, configurer et tester les plateformes (performances, résilience, reprise d’activité). ✅ Implémenter le monitoring et l’alerting. ✅ Rédiger les documents d’exploitation et contribuer à la montée en compétence des équipes. ✅ Participer au RUN : gestion des incidents, patching, upgrades et astreintes.
Offre premium
Offre d'emploi
Data Engineer Snowflake DBT
Publiée le
BigQuery
CI/CD
Databricks
1 jour
40k-45k €
100-480 €
Paris, France
Télétravail partiel
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
DBT
DevOps
Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Mission freelance
Senior Data Scientist - Gen AI - Finance (h/f)
Publiée le
12 mois
650-750 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un Data Scientist expérimenté, spécialisé dans l'IA générique et Python ? Emagine vous offre l'opportunité de guider et de diriger le développement de structures et d'outils efficaces afin de créer des applications d'IA fiables et dignes de confiance dans un environnement bancaire international. Are you an experienced Data Scientist with expertise in Gen AI and Python? Emagine has an opportunity for you to guide and lead the development of effective structures and tools to create reliable, trustworthy AI applications within a global banking environment. As part of an AI-focused emagine team working on Gen AI initiatives that leverage LLMs and advanced techniques to solve complex business problems. You will work on unstructured data from sources such as legal documents and financial trading policies, building solutions that enable accurate and reliable outcomes. Main Responsibilities Lead the design and implementation of Gen AI solutions for text-based and LLM-driven use cases. Develop Python-based tools for data ingestion, modelling, and manipulation of large volumes of unstructured data. Define effective structures and frameworks to ensure reliability and trustworthiness in AI applications. Collaborate with legal and compliance teams to process and model complex datasets. Key Requirements 5+ years of experience in Data Science including international corporate environments. Strong expertise in Python and hands-on experience with LLMs (e.g., Lama 7DB, GPT-4 API). Familiarity with vectorization, chunking, and advanced data modelling techniques. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Nice to Have Exposure to legal or procedure-focused applications. Other Details Work is a minimum of 3 days per week on-site (8th). Apply with your latest CV or reach out to Brendan to find out more.
Offre d'emploi
Chef de projet coordination audits / contrôle interne
Publiée le
Agile Scrum
Big Data
Cloud
6 mois
40k-45k €
400-600 €
Île-de-France, France
Télétravail partiel
La mission s’inscrit dans un environnement en forte transformation autour de la donnée et de la conformité réglementaire. Dans ce contexte, la direction de mon client cherche un Chef de projet dédié à la coordination des audits et à la gestion des preuves de conformité . En ce sens, les objectifs de la mission sont les suivants : Analyser les demandes des auditeurs (internes ou externes) relatives aux contrôles de gestion, aux processus data, ou à la conformité IT. Identifier les interlocuteurs concernés dans les différentes équipes (référentiel, Big Data, décisionnel, conformité) et assurer la collecte des éléments de preuve. Consolider et structurer les preuves d’audit (procédures, extractions, logs, comptes rendus techniques, documents de conformité, etc.). Suivre les échanges entre les auditeurs et les équipes opérationnelles, en veillant à la complétude et la qualité des livrables. Produire un reporting régulier sur l’avancement des audits, les points de blocage et les risques de non-conformité. Contribuer à l’amélioration continue du processus de gestion d’audit et de capitalisation documentaire. Livrable attendus : Tableau de suivi des demandes et des preuves. Dossier de preuves complet pour chaque audit. Reporting hebdomadaire sur l’avancement et les points de vigilance. Proposition d’amélioration du processus d’audit (capitalisation, automatisation, traçabilité).
Mission freelance
Expert informatica - Cloud Data intégration
Publiée le
Cloud
Informatica
36 mois
500-570 €
Niort, Nouvelle-Aquitaine
Installer et paramétrer les solutions Informatica PowerCenter et PowerExchange . Mettre en place les connecteurs vers différentes sources de données : DB2, Oracle, SAP, CDC . Assurer la gestion des incidents et le support aux projets . Accompagner les équipes de support au développement. Documenter les procédures d’exploitation. Participer à des projets de montée de version des solutions Informatica. Intervenir dans un environnement multi-sites (3 DataCenters) sous Linux et Windows .
Offre d'emploi
Administrateur SAP BO BI / Data Architecture (F/H)
Publiée le
SAP
38k-42k €
Dijon, Bourgogne-Franche-Comté
Télétravail partiel
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 CDI (38-42K€) - 🏠 1 jour de télétravail / semaine - 📍 Dijon - 🛠 Expérience de 2 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Administrateur SAP BO BI / Data Architecture pour intervenir chez un de nos clients. 💻💼 Votre mission : Au sein de notre pôle Business Intelligence, vous interviendrez pour garantir la performance et la fiabilité de leurs plateformes SAP BO BI 4.3. Concrètement, vous allez : - Assurer le suivi opérationnel et la maintenance des environnements SAP BO BI 4.3, - Prendre en charge l’assistance de niveau 2 et 3, - Identifier et mettre en œuvre des optimisations de rapports et d’univers, - Contribuer aux projets de conversion et de migration vers SAP BO BI 2025, - Industrialiser la gestion des plateformes via scripting et datamart de supervision / audit.
Offre d'emploi
Chef de projet Supply/DATA H/F
Publiée le
55k-60k €
Tarare, Auvergne-Rhône-Alpes
Vos missions principales : Pilotage de projets Data : vous conduisez des projets structurants de bout en bout, de la définition des besoins à la mise en production. Recueil et challenge des besoins métiers : vous identifiez les enjeux, proposez des solutions adaptées et accompagnez les équipes dans leur appropriation. Coordination transverse : vous êtes l'interface clé entre les équipes métiers, IT et data. Gouvernance de la donnée : vous contribuez activement à la mise en place de référentiels, à l'amélioration de la qualité des données, au catalogage et à la traçabilité. Suivi de la performance data : vous participez à la définition et au pilotage des KPIs liés à la valorisation des données. Vous intervenez sur un écosystème riche et varié : Data Lake, DWH, Data HUB, MDM, PIM/DAM, Data Catalog, Data Lineage, Data Quality, Data Visualisation, Data Export, avec une forte orientation vers les solutions Microsoft et Informatica.
Mission freelance
Consultant SAP Data Migration
Publiée le
SAP
9 mois
Île-de-France, France
Télétravail partiel
Mission de reprise des données pour le stream Support : • Une bonne connaissance du secteur aéronautique, de ses contraintes opérationnelles et règlementaires. • Une bonne connaissance des fondamentaux du « DataManagement » et du cycle de vie de la donnée • Une maitrise des outils usuels de gestion de la donnée : Innovera, Knime, Hana Studio et PWBI, … • Une connaissance de l’ERP SAP S4 • Développement de vues Hana Studio. • Une connaissance des tables SAP serait un réel plus Durée 9 mois Lieu 91 TT en TT 2 jrs Début mission : novembre
Offre d'emploi
Scrum Master - DATA
Publiée le
Cloudera
Google Cloud Platform (GCP)
Kanban
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
📢 Offre de mission – Scrum Master Data Au sein d’un département IT Data, vous interviendrez sur la mise en place et le pilotage d’un cadre Agile pour l’ensemble des activités de développement de l’équipe. 🎯 Objectif de la mission : Le Scrum Master aura pour rôle de structurer le cycle agile, d’assurer le pilotage du delivery (jalons, budget, RAF fonctionnel, validation des chiffrages) et de représenter l’équipe de développement au sein des différentes instances. Ce poste, à forte visibilité, nécessite un excellent sens du relationnel , une rigueur d’exécution et une communication claire et professionnelle , véritables vitrines de la qualité du travail de l’équipe. Responsabilités principales : Mettre en place et animer le cycle Agile (Scrum, Kanban, SAFe). Piloter le delivery : suivi des jalons, budgets et charges. Qualifier les chiffrages et coordonner la planification avec les équipes métier et techniques. Faciliter la communication entre les développeurs, les PO et les parties prenantes. Contribuer à l’amélioration continue des pratiques agiles et à la performance de l’équipe.
Offre d'emploi
Data Engineer IA
Publiée le
21 621 €
Lavaur, Occitanie
Télétravail partiel
En tant que Data IA Engineer au sein de notre équipe Data Intégration, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions avancées d'intelligence artificielle et de data science. Votre mission principale sera de contribuer à l'amélioration continue et à l'innovation de nos plateformes digitales. 1.1. CONTENU DE LA MISSION OU DES LIVRABLES En tant que Data IA Engineer, vous serez responsable de la conception, du développement et de l'intégration de solutions complètes enrichies par des algorithmes d'intelligence artificielle. Vous jouerez un rôle crucial dans la création de services backend robustes et performants, en utilisant Python et FastAPI pour traiter et analyser des données complexes. Responsabilités : -Concevoir et développer des services backend en Python et FastAPI, intégrant des techniques avancées de machine learning et de traitement de données massives. -Gérer et optimiser des bases de données telles que MongoDB, Elasticsearch, ainsi que des systèmes SQL et NoSQL pour assurer un stockage et une analyse efficaces des données. -Mettre en œuvre des méthodologies de CI/CD en utilisant Docker et GitLab CI, avec un fort accent sur l'automatisation des workflows de data science pour garantir une intégration et une livraison continues fluides. -Collaborer avec les équipes de développement pour intégrer des modèles d'IA dans les applications, en assurant leur performance et leur scalabilité. -(Optionnel) Développer des interfaces utilisateur interactives en utilisant React et Next.js, permettant une interaction fluide avec les modèles d'IA. 1.2. SPECIFICITE DE LA MISSION Diplôme en informatique, data science, ingénierie ou domaine connexe. Data IA engineer avec maîtrise de Python, FastAPI, MongoDB, Elasticsearch, SQL, NoSQL, Docker, Airflow, Snowflake et Gitlab CI. Des capacités en React et Next.js sont un plus
Offre d'emploi
Business Analyst IT (Data Management & ESG)
Publiée le
ESG
JIRA
Microsoft Excel
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte : Au sein d’une grande institution financière internationale, le poste s’intègre dans une équipe dédiée à la gestion et valorisation des données ESG (Environnement, Social, Gouvernance) . L’objectif est de développer et maintenir un écosystème de collecte, historisation et distribution des données ESG , utilisé notamment pour des indicateurs stratégiques liés à la trajectoire climat de l’entreprise. Missions principales : Interagir avec différents interlocuteurs métiers et techniques dans un environnement collaboratif. Analyser, comprendre et challenger les besoins fonctionnels. Anticiper les évolutions nécessaires et leurs impacts. Coordonner l’équipe de développement et assurer le suivi des projets. Garantir le respect des objectifs en termes de coût, délai et performance. Participer à la mise en place et à la maintenance des applications liées au reporting ESG. Méthodologie de travail : Agile (Scrum / Kanban)
Mission freelance
Consultant(e) Data Privacy & Compliance
Publiée le
3 mois
390-450 €
Paris, France
Télétravail partiel
Métier : Pilotage de projet ou de programme Fonction : Consultant Spécialités technologiques : Conduite du changement RGPD Cybersécurité Gestion des projets Migration de données Type de facturation : Assistance Technique (facturation au taux journalier) Compétences : Technologies et Outils : Amazon Méthodes / Normes : Adapter Soft skills : Autonomie, Rigueur Langues : Anglais Secteurs d'activités : Assurance Description de la prestation : Le consultant intervient pour renforcer la gouvernance et la conformité des données personnelles dans un environnement international. Il soutient l’équipe Data Privacy dans la mise en œuvre des politiques de protection des données, la gestion des projets de conformité et la coordination transversale entre entités. Principaux axes d’intervention : Gouvernance et conformité : Adapter et déployer les politiques internes selon la réglementation (RGPD, etc.) Maintenir le registre de traitement et assurer la conformité documentaire Contribuer aux contrôles permanents et suivre les audits internes Participer aux comités de gouvernance et faire le reporting Accompagnement des projets et support aux équipes : Apporter un appui opérationnel sur projets liés aux données personnelles (nouveaux produits, migrations, IA, cloud) Réaliser ou contribuer aux Data Privacy Impact Assessments (DPIA) et évaluations de conformité Soutenir la due diligence et évaluation fournisseurs (Microsoft, Amazon, Cyber) Participer à la distribution des produits Data Privacy Faire interface avec les équipes gestion des incidents et demandes d’accès Transformation et conduite du changement : Accompagner la montée en maturité sur Data Privacy Contribuer au déploiement de la plateforme OneTrust (migration, paramétrage, intégration) Promouvoir bonnes pratiques et optimiser les processus
Mission freelance
Chef de Projet Déploiement & Support Medius
Publiée le
Data management
1 an
400-690 €
Île-de-France, France
Télétravail partiel
Missions principales 1. Gestion de projets de déploiement Medius Élaboration du planning / vagues en coordination avec le Program Manager Définition et validation du scope avec les CSP Organisation des kick-off et ateliers de Gap Analysis Suivi des gaps, change management et livrables par phase Coordination et validation des tests, gestion de l’issue list et escalades Préparation du Go-live : cutover, hypercare, transfert au support Reporting aux comités de pilotage (outil interne Concerto) 2. Gestion du support Medius – QAD (intégration) Collecte et qualification des demandes auprès des CSP Coordination du delivery avec équipes Medius / QAD Suivi des tickets (Jira + Medius Portal) Escalade et suivi de résolution
Offre d'emploi
Data Engineer (Bordeaux)
Publiée le
BI
Python
Snowflake
3 mois
40k-48k €
100-370 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data
Offre d'emploi
gestion de parc et data analyst CMDB (service now)
Publiée le
60k-70k €
Corbeil-Essonnes, Île-de-France
Télétravail partiel
Au sein de la Division Workplace de la DSI d'un grand groupe industriel, le service Gestion de Parc pilote le cycle de vie du matériel utilisateur (PC, écrans, accessoires). La multiplication de projets récents a dégradé la qualité du référentiel. Nous recherchons un consultant pour remettre à niveau la CMDB (ServiceNow) en coordination étroite avec le Responsable Gestion de Parc. Missions * Audit & inventaire * Contacter les directions/services ciblés (liste fournie) pour recenser les postes et périphériques détenus. * Établir la liste des actifs à ajouter / corriger dans la CMDB. * Analyse & fiabilisation des données * Croiser et analyser les exports SCCM, Nexthink, CMDB ServiceNow, Active Directory. * Uniformiser les données et produire les jeux d'entrées nécessaires à la mise à niveau de la CMDB. * Fournir un fichier d'injection formaté (template fourni par l'équipe Gestion de Parc). * Coordination & suivi * Organiser et piloter les relances auprès des collaborateurs (sans rôle \"chef de projet\"). * Restituer les avancées : reporting, synthèse des écarts, recommandations de remédiation. Livrables attendus * Comptes-rendus des campagnes d'audit (périmètre, contacts, retours, écarts). * Résultats d'analyse consolidés (SCCM, Nexthink, AD, CMDB) avec pistes d'assainissement. * Fichiers d'injection conformes au template fourni pour mise à jour CMDB.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Identifier les partenaires directs des Grands Groupes (sans intermédiaires)
- Quelles nouvelles fonctionnalités aimeriez-vous voir sur Free-Work ?
- Stratégie épuisement des fonds jusqu'à la retraite
- Offre archivée
- SASU est ce que le pv d'ag existe ou seulement décision de l'associ unique?
- Job Consultant Service now Suisse. 200 euros par jour!
1789 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois