L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 798 résultats.
Mission freelance
Consultant(e) Data Privacy & Compliance
Publiée le
Amazon S3
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme,Consultant Spécialités technologiques : Gestion des projets,Migration de données,Conduite du changement,RGPD,Cybersécurité Secteurs d'activités Assurance Description et livrables de la prestation Description et livrables de la prestation Le consultant interviendra dans le cadre du renforcement de la gouvernance et de la conformité des données personnelles au sein d’un environnement international. La prestation vise à soutenir l’équipe Data Privacy dans la mise en œuvre opérationnelle des politiques de protection des données, la gestion des projets de conformité et la coordination des activités transverses entre les entités. Principaux axes d’intervention : Gouvernance et conformité - Adapter et déployer les politiques internes de protection des données conformément aux réglementations applicables (RGPD, etc.). - Maintenir le registre de traitement et assurer la conformité documentaire (consentements, notices, autorisations, etc.). - Contribuer à la mise en œuvre de contrôles permanents et au suivi des audits internes. -Participer aux comités de gouvernance et assurer le reporting vers les parties prenantes locales et centrales. Accompagnement des projets et support aux équipes - Apporter un appui opérationnel sur les projets impliquant des données personnelles : nouveaux produits, migrations, intégration d’outils IA, cloud, etc. - Réaliser ou contribuer aux Data Privacy Impact Assessments (DPIA) et évaluations de conformité. - Soutenir les activités de due diligence et d’évaluation fournisseurs (ex. Microsoft, Amazon, Cyber). - Participer à la mise en œuvre du processus de distribution des produits Data Privacy auprès de l’ensemble des entités. - Assurer un rôle d’interface avec les équipes en charge des incidents et des demandes d’accès. Transformation et conduite du changement - Accompagner les équipes dans la montée en maturité sur les enjeux Data Privacy. - Contribuer au déploiement de la plateforme OneTrust, notamment sur les aspects migration, paramétrage et intégration. - Promouvoir les bonnes pratiques et challenger les processus existants pour améliorer l’efficacité opérationnelle. Expertise souhaitée Compétences techniques et fonctionnelles - Minimum 5 ans d'expérience dans des fonctions de conformité, Data Privacy, gouvernance des données ou gestion de projets réglementaires. - Bonne compréhension du cadre RGPD et des pratiques de conformité opérationnelle. - Maîtrise ou connaissance avancée de la plateforme OneTrust (ou équivalent). - Familiarité avec les environnements IT, infrastructures, mainframe, et les enjeux de migration de données. - Capacité à collaborer efficacement avec les directions IT, cybersécurité, data et juridique. - Compétences en pilotage de projets transverses et en coordination d’acteurs multiples. Compétences comportementales - Anglais professionnel courant (environnement de travail international). - Esprit analytique, rigueur et sens de la priorisation. - Excellente communication et capacité à interagir avec des interlocuteurs de haut niveau. - Aptitude à instaurer la confiance tout en challengeant les pratiques établies. - Sens du résultat, autonomie et esprit de collaboration.
Offre d'emploi
Data Scientist
Publiée le
Python
6 mois
Liège, Belgique
En tant que Data Scientist Senior , vous participerez à des projets complexes de traitement et d’analyse de données afin de générer des insights exploitables. Vous travaillerez en étroite collaboration avec les équipes métiers, IT et Data Engineering pour construire des modèles prédictifs et des solutions analytiques robustes. Responsabilités principales Concevoir, développer et déployer des modèles de machine learning pour résoudre des problématiques business complexes. Manipuler, transformer et analyser de grands volumes de données provenant de différentes sources (bases relationnelles, Snowflake, APIs…). Garantir la qualité et la cohérence des données en collaboration avec les équipes Data Governance et en utilisant des outils comme Collibra . Développer et maintenir des pipelines ETL et scripts Python pour automatiser le traitement des données. Présenter les résultats et insights de manière claire aux parties prenantes, en français et en anglais. Encadrer et partager vos connaissances avec des profils moins expérimentés (mentorat). Contribuer à la définition des bonnes pratiques Data Science et à l’amélioration continue des processus analytiques. Profil recherché Diplôme supérieur en Statistiques, Informatique, Mathématiques, Data Science ou domaine similaire. Expérience significative (minimum 5 ans) en Data Science, idéalement dans un environnement international. Maîtrise avancée de Python pour le traitement de données et le développement de modèles ML (pandas, scikit-learn, TensorFlow, etc.). Maîtrise de SQL et expérience sur Snowflake pour l’interrogation et l’exploitation des données. Expérience avec des outils de Data Governance , en particulier Collibra . Solide compréhension des statistiques, de l’algorithmique et des méthodes de machine learning. Capacité à travailler en autonomie et à gérer des projets complexes. Excellente communication écrite et orale en français et anglais . Compétences appréciées Expérience avec des outils de visualisation (Tableau, Power BI, Plotly…). Connaissance des bonnes pratiques DevOps/DataOps appliquées à la Data Science. Expérience avec des environnements cloud (AWS, Azure, GCP). Ce que nous offrons Un environnement stimulant et innovant avec des projets à fort impact. Opportunités d’évolution et formation continue. Flexibilité et équilibre vie professionnelle/vie personnelle. Travail dans une équipe dynamique et collaborative.
Offre d'emploi
Architecte Data / Cloud
Publiée le
Apache Airflow
AWS Cloud
Azure
2 ans
Paris, France
Télétravail partiel
Dans le cadre de la modernisation du SI Data, l’équipe recherche un Architecte Data Cloud pour concevoir et accompagner la mise en œuvre de plateformes Data multi-cloud (AWS, Azure, GCP), interconnectées aux produits numériques développés dans l’entreprise. La mission consiste à garantir la cohérence, la gouvernance et la performance des architectures Data Cloud. Missions principales Concevoir des architectures Data sur les environnements Cloud (AWS, Azure, GCP). Définir les standards d’intégration, stockage, orchestration et exposition de la donnée. Élaborer les architectures cibles (Data Lake, Data Mesh, Virtualisation, Catalogues) . Superviser la migration de systèmes On-Prem vers le Cloud (Oracle, Hadoop, etc.). Mettre en place les pipelines d’alimentation (Airflow, Trino, Spark, Glue, Data Factory…). Garantir la conformité (sécurité, RGPD, souveraineté, Cloud de Confiance). Participer aux jalons PMPG (cadrage, déploiement, bénéfices). Documenter les DAT, schémas techniques, POC et livrables d’architecture. Contribuer au transfert de compétences auprès des équipes internes.
Mission freelance
Consultant Data Migration – SAS / SQL – Contexte Épargne & Transformation SI
Publiée le
SAS
SQL
2 ans
400-580 €
Île-de-France, France
Télétravail partiel
Description de la mission : Dans le cadre d’un programme de transformation du système d’information épargne , nous recherchons un consultant confirmé spécialisé en migration de données pour intervenir sur la construction et l’industrialisation d’un modèle de données pivot entre les systèmes existants et un nouvel outil de gestion. Vos missions : Analyser les traitements et modèles de données existants sous SAS Enterprise Concevoir et faire évoluer le modèle de données Pivot servant d’interface entre les systèmes source et cible Développer et industrialiser les flux SAS (pré-traitement, transformation, injection) Réaliser les tests unitaires et suivre les anomalies Participer au passage de run de migration et assurer le suivi des compteurs Rédiger la documentation technique et les spécifications fonctionnelles détaillées
Offre d'emploi
Architecte Solution SI
Publiée le
Big Data
CI/CD
GLPI
1 jour
10k-45k €
100-500 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre de l’évolution de son système d’information et du rapprochement de ses plateformes avec le Groupe MAIF, SMACL Assurances SA souhaite renforcer la Tribu Sinistres par l’intervention d’un Architecte Solution SI expérimenté. La mission s’inscrit au sein du collectif des architectes du groupe, sur un périmètre mêlant patrimoine applicatif Java / Angular et progiciel PRIMA, dans un environnement Agile. Missions principales Concevoir et maintenir les normes et principes d’architecture du SI. Analyser les impacts des nouvelles solutions sur le SI et formuler des recommandations d’évolution. Proposer et formaliser des architectures cibles robustes et évolutives (microservices, cloud, data). Mettre à jour les référentiels d’entreprise : cartographie, patterns, dossiers d’architecture. Élaborer les dossiers d’analyse d’impact et de choix de solution. Contribuer à la stratégie d’évolution du SI, au MCO et à la levée des obsolescences. Accompagner les équipes projets et les architectes débutants sur les bonnes pratiques. Présenter et argumenter les choix techniques lors des comités d’architecture. Compétences techniques recherchées Architecture SI : conception d’architectures à grande échelle, modélisation de patterns, principes de sécurité. Architectures modernes : microservices, cloud-native, data / SID / Big Data. Pratiques DevSecOps : intégration de la sécurité, CI/CD, gestion des habilitations (LDAP, GDI, etc.). Base de données : conception et gouvernance. Outils : Enterprise Architect, Office 365, Jira / Redmine / GLPI. Environnement Agile : maîtrise des rôles, rituels et méthodes agiles.
Mission freelance
Profil Data hybride / Alteryx / Power BI
Publiée le
Alteryx
Google Cloud Platform (GCP)
Microsoft Power BI
3 ans
400-500 €
Montpellier, Occitanie
Télétravail partiel
Pour l’un de nos clients grand compte, nous recherchons un Profil Data hybride ALTERYX / Power BI capable à la fois de challenger les métiers fonctionnellement (recueil et reformulation du besoin, rédaction de specs, validation) et d’assurer une partie technique / développement (ETL, requêtage, reporting). Être l’interface entre les utilisateurs métiers et l’équipe technique, traduire les besoins en spécifications exploitables, concevoir et développer les traitements et livrables data (ETL, requêtes, tableaux de bord), assurer la qualité et la maintenabilité des livrables. Responsabilités Recueillir, clarifier et challenger les besoins métiers ; réécrire et structurer les demandes pour les rendre exploitables. Rédiger les spécifications fonctionnelles et techniques (US, critères d’acceptation). Concevoir et développer des flux ETL / transformations avec Alteryx . Modéliser, optimiser et maintenir des requêtes et procédures sur Oracle (SQL / PL/SQL). Développer et publier des Dashboard Power BI (modèles tabulaires, DAX, performance). Développer des applications simples ou prototypes avec PowerApps (souhaité).
Mission freelance
RESPONSABLE D'APPLICATION - Confirmé (H/F)
Publiée le
Azure Data Factory
Databricks
ITIL
4 mois
400-490 €
Châtillon, Île-de-France
Télétravail partiel
Responsable d'application au Datalab : o Assure et coordonne les activités de maintenance corrective et évolutive des applications dont il est responsable. o Il est responsable de la qualité de service délivrée dans le respect des contrats (support, qualité, sécurité, …) vis-à-vis des entités métiers en s’appuyant sur les équipes transverses. o Il est aussi le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de l’application. o Il est en interface avec le métier et répond aux demandes d’évolution ou des projets en lien avec le Responsable SI Métier et le Chef de Projet. CONCEPTION D'ÉVOLUTION DU SYSTÈME D'INFORMATION o Est l'interlocuteur des métiers / DOSI lors de la vie courante des systèmes o Est responsable de l'évolution des applications dont il a la charge o Gère les demandes, les priorise, et gère les lots d'évolutions de ses applications en lien avec le Responsable SI métier et le Responsable de Domaine/Pôle o Participe aux cadrages et projets d'adaptation et d'évolution du SI o Effectue l'analyse fonctionnelle des besoins et détermine les impacts sur les interfaces avec les produits environnants dans le système d'information de l'entreprise o Suit les roadmaps de l'Editeur, en analyse les impacts sur son périmètre et anticipe et pilote les montées de versions MISE EN ŒUVRE DU SYSTÈME D'INFORMATION o Conduit, dans le cadre des projets, l'évolution cohérente de son système depuis la conception jusqu'à la mise en service o Réalise les spécifications de ses applications o S’assure de la qualité attendue des développements réalisés o Contribue à la stratégie de recette des projets sur son périmètre o Est responsable de la définition, avec le métier/DOSI et l'équipe Test Factory, des plans de tests nécessaires à la recette de ses applications o Pilote les livraisons de corrections en cas d'anomalies détectées sur ses applications QUALITÉ DU SYSTÈME D'INFORMATION (PERFORMANCE, COHÉRENCE, COÛT, DÉLAI? ) o Applique les normes, méthodes et outils de référence définis au sein du Domaine ou de la Direction de référence o Est le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de ses applications o Est responsable de la gestion documentaire des applications o S'assure de la production et du suivi des indicateurs de performances de ses applications en lien avec le Responsable de Domaine/Pôle, le Chargé de Pilotage SI o S'assure que les SLA définis contractuellement avec l'éditeur et les Domaines sont suivis et respectés
Offre d'emploi
Data Engineer
Publiée le
BigQuery
Docker
Domain Driven Design (DDD)
1 an
10k-60k €
100-550 €
France
Télétravail partiel
Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data
Mission freelance
Data Engineer Databricks (F/H)
Publiée le
Databricks
1 an
500-550 €
Saint-Denis, Île-de-France
Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).
Mission freelance
Data Engineer Python / AWS / Airflow / Snowflake
Publiée le
Apache Airflow
AWS Cloud
Python
12 mois
100-550 €
Île-de-France, France
Télétravail partiel
Conception & développement de pipelines Implémenter de nouveaux flux de données batch et streaming . Développer des pipelines ETL / ELT en Python et Airflow pour les traitements planifiés, et via NiFi ou Kafka pour les données en temps réel. Assurer l’intégration et la mise à disposition des données dans Snowflake . Industrialisation & bonnes pratiques Participer aux revues de code , aux tests unitaires et d’intégration . Contribuer à l’ industrialisation des pipelines avec des pratiques CI/CD robustes. Maintenir la documentation technique à jour et contribuer à l’amélioration continue des process. Maintenance & optimisation Garantir la maintenance corrective et évolutive des flux existants. Participer à la mise en place du monitoring , des alertes et des bonnes pratiques d’exploitation. Optimiser les performances, la fiabilité et la qualité des traitements de données.
Mission freelance
Consultant Data SAS / SQL – Migration & Modèle Pivot – Contexte Épargne
Publiée le
ETL (Extract-transform-load)
SAS
SQL
2 ans
400-490 €
Île-de-France, France
Télétravail partiel
Description de la mission : Dans le cadre d’un programme de modernisation du système d’information épargne , nous recherchons un consultant data confirmé pour intervenir sur la construction et l’industrialisation d’un modèle de données Pivot entre les systèmes existants et un nouvel outil de gestion. Vos missions : Analyser les traitements existants sous SAS Enterprise et comprendre les flux de données en place Concevoir et faire évoluer le modèle de données Pivot servant de passerelle entre les systèmes source et cible Industrialiser et fiabiliser les traitements SAS pour garantir la qualité et la traçabilité des données Participer aux phases de tests unitaires, intégration et suivi des anomalies Rédiger la documentation technique (SFD, suivi de compteurs, rapports de traitement) Contribuer à la préparation et au passage des runs de migration
Mission freelance
Consultant·e Data Integration – Talend / Stambia
Publiée le
Stambia
Talend
6 mois
400-490 €
Hauts-de-Seine, France
Télétravail partiel
Nous recherchons un·e Consultant·e Data Integration expérimenté·e , intervenant sur des projets de migration et de décommissionnement d’outils d’intégration de données . Le contexte est stimulant, avec un environnement technique riche et une équipe orientée delivery. Missions principales Assurer la maintenance évolutive et corrective des flux existants sous Stambia et Talend . Participer à la migration et au décommissionnement progressif de l’environnement Stambia vers Talend. Concevoir, développer et optimiser des processus d’intégration de données . Contribuer à la qualité, la performance et la sécurité des flux . Rédiger la documentation technique et assurer la traçabilité des développements. Collaborer avec les équipes projet, production et architecture.
Offre d'emploi
Ingénieur Data Management – Microélectronique (F/H) – Toulouse
Publiée le
Electronique
42k-45k €
Toulouse, Occitanie
Télétravail partiel
📑 CDI 42-45K€ / Freelance / Portage Salarial – 🏠 2 jours de télétravail /semaine – 📍 Toulouse (31) – 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Ingénieur Data Management – Microélectronique (équipe CAD) (F/H) pour intervenir chez notre client dans le domaine des semi-conducteurs à Toulouse. 💻💼 L’objectif ? Garantir la fiabilité, la cohérence et la transférabilité de l’ensemble des environnements de conception — analogiques, numériques et physiques — avant leur livraison finale. Vos missions 🎯 : - Collaborer avec les équipes de conception, d’outillage et de production pour comprendre leurs besoins sur le transfert des données, vérification de cohérence des bases de données. - Vérifier les flux de données liés aux librairies technologiques, et aux environnements de conception, pour assurer leur cohérence et leur disponibilité. - Automatiser les processus de mise à jour, de synchronisation et de vérification des données via des scripts (Python, Shell, Perl ou équivalent). - Préparer l’environnements utilisés par l’équipe CAD, en garantissant versioning et intégrité des données. - Documenter les procédures, les bonnes pratiques et les architectures de données afin d’assurer la continuité et la qualité des opérations. Environnement technique : Python, Shell, Pipelines, Linux, Microélectronique, Design Flow, Cadence, Git…
Offre d'emploi
Tech Lead Data Engineer
Publiée le
Apache Spark
Azure
Databricks
6 mois
45k-55k €
400-520 €
Châtillon, Île-de-France
Au moins 5 ans d’expérience en tant que Tech Lead. Principales missions : - Assurer un leadership technique auprès des équipes de développement. - Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. - Participer activement aux phases de conception, développement et tests. - Porter la vision technique au sein des équipes Agile. - Garantir la qualité des livrables et veiller à la réduction de la dette technique. - Réaliser la modélisation des données. - Assurer une veille technologique et participer aux POCs. - Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.
Mission freelance
Ingénieur de production - Data / GCP
Publiée le
Big Data
Google Cloud Platform (GCP)
Production
12 mois
450-500 €
Paris, France
Télétravail partiel
Notre client, un grand groupe bancaire, souhiate intégrer un profil d"ingénieur de production au sein de sa plateforme Data & Analytics Cloud , qui centralise les usages de reporting, data science et data management pour l’ensemble du groupe. Au sein du service Power BI Cloud et Data Platform , vous intégrerez l’équipe en charge de l’exploitation et de la fiabilité des environnements de production supportant plusieurs milliers d’utilisateurs et applications Missions : En tant qu’ Ingénieur de Production , vous participerez à la supervision, au maintien en conditions opérationnelles et à l’automatisation des services data et BI du groupe. Vos activités clés : Assurer l’ exploitation courante de la plateforme Power BI Cloud et des environnements Data (GCP). Gérer les déploiements applicatifs et les changements via XL Deploy . Participer à la mise en place d’infrastructures automatisées (Infrastructure as Code – Terraform ). Superviser les traitements de données et les flux d’ingestion sur BigQuery . Contribuer à la gestion des accès utilisateurs et à la sécurisation des environnements . Participer au diagnostic et à la résolution d’incidents en lien avec les équipes projet et data. Collaborer aux activités Build et à la mise en production de nouveaux services en mode Agile / DevOps . Être force de proposition pour l’amélioration continue , l’ industrialisation et la fiabilité des process d’exploitation Stack technique : Power BI Cloud (SaaS, administration et gouvernance) GCP : BigQuery, IAM, monitoring, déploiement de services Data Terraform (IaC) XL Deploy , intégration et automatisation des déploiements Scripting : Bash / Python / PowerShell Supervision et observabilité (outils du marché ou internes)
Offre d'emploi
Data Analyst Production / IT (H/F)
Publiée le
Microsoft Power BI
Python
3 ans
40k-45k €
400-550 €
Montreuil, Île-de-France
Pour notre client dans le secteur bancaire, vous rejoignez les équipes IT / Production pour piloter, analyser et optimiser les données techniques issues des systèmes de production (logs, incidents, monitoring, supervision). Votre rôle est clé pour assurer la fiabilité , la disponibilité et la performance des services bancaires, en lien avec les équipes techniques, DevOps et métiers. 🎓 Formation & Expérience Bac +5 (école d’ingénieur, université ou équivalent) en data science, statistiques, informatique Expérience en tant que Data Analyst dans un contexte IT / production Une expérience dans le secteur bancaire ou financier est un atout majeur 🛠️ Compétences Techniques Langages : SQL , Python ou R Outils : Power BI , Tableau , Excel avancé (macros, Power Query) Environnements : ETL / ELT , data warehouse , data lake Connaissances en statistiques , modélisation , data mining Notions de DevOps , Jenkins , Airflow , versioning 🔄 Méthodologie & Qualités Méthodes Agile , cycles itératifs Capacité à analyser , structurer et communiquer avec des interlocuteurs techniques et métiers Rigueur, esprit critique, proactivité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Stratégie épuisement des fonds jusqu'à la retraite
- Quelles nouvelles fonctionnalités aimeriez-vous voir sur Free-Work ?
- Identifier les partenaires directs des Grands Groupes (sans intermédiaires)
- Offre archivée
- SASU est ce que le pv d'ag existe ou seulement décision de l'associ unique?
- Job Consultant Service now Suisse. 200 euros par jour!
1798 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois