L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 963 résultats.
Mission freelance
Chef de projet Data - Fonctionnel (H/F)
Publiée le
12 mois
500-600 €
Lyon, Auvergne-Rhône-Alpes
Notre client, grand acteur industriel est à la recherche de son futur Chef de projet Data (H/F) pour ses sites proche de Lyon en raison d'une transformation DATA d'envergure. Vous intervenez au sein de la Direction de la Transformation Digitale, sur le pôle Data Build, dans un contexte multi-sites et fortement transverse Vos missions : Il sera attendu que vous ayez : * Capacité à structurer un programme Data Groupe, à en assurer le pilotage, à garantir la qualité et la gouvernance. * Vision transversale : métiers, SI, data ; pragmatisme et sens de l’opérationnel. * Sens du résultat, respect des délais et des objectifs, rigueur dans le suivi. * Esprit de pilotage, leadership projet, capacité à arbitrer et prioriser dans un contexte parfois incertain. Au sein du pôle Data Build vous devrez faire : * Recueil et cadrage des besoins métiers (finance, supply-chain, marketing, commercial, …) et traduction en spécifications fonctionnelles data / SI. * Pilotage de projets Data end-to-end : MDM fournisseur, gouvernance data, data quality, catalogue data / PIM, BI. * Animation des ateliers, comités projet, COPIL / instances décisionnelles, coordination transverse métiers ↔ techniques. * Suivi planification / budget / livrables / jalons / risques / arbitrages, notamment dans un contexte “build → run”. * Coordination avec les équipes BI / IT pour les développements et intégrations. * Gouvernance des données : définition des référentiels, qualité, cohérence, conformité des process. * Reporting projet & data : suivi des KPIs, reporting aux instances de gouvernance, formalisation des livrables. * Capacité à piloter plusieurs projets simultanément, dans un cadre industriel et multi-disciplinaires.
Mission freelance
Data engineer (H/F)
Publiée le
Dataiku
ELK
1 an
400-460 €
Châtillon, Île-de-France
Télétravail partiel
Infrastructures de données : - Cartographie et documente les sources de données. - Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. - Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. - Structure les bases de données (sémantique, format, etc.). - Contribue à la gestion des référentiels de données. Intégration des données : - Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. - Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. - Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. - Nettoie la donnée (élimination des doublons) et la valide pour une utilisation aval. Animation des communautés : - Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : - Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. - Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables - Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. - Un data lake adapté aux besoins actuels et futurs de l'entreprise. - Une cartographie des données. - Les éléments permettant de garantir la qualité de la donnée.
Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - STAND - BY - 1005
Publiée le
10 mois
400-750 €
Guyancourt, Île-de-France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation
Offre d'emploi
Network Technical Lead
Publiée le
Cisco
Firewall
Load Balancing
40k-65k €
Savoie, France
Télétravail partiel
Pilotage du DESIGN : études, conception, POCs et définition des standards. Validation des solutions réseau : Cisco, Fortinet, Palo Alto, SD-WAN, F5, Aruba. Suivi du BUILD et garantie de la conformité aux architectures. Support RUN : incidents majeurs, astreintes, opérations planifiées (ITIL). Contribution à la sécurité : segmentation, durcissement, optimisation des flux. Automatisation & IaC : Ansible, Git, scripts. Veille technologique et amélioration continue. Participation aux comités techniques et partage de bonnes pratiques.
Mission freelance
Site Reliability Engineer (SRE)
Publiée le
Github
Google Cloud Platform (GCP)
Kubernetes
1 an
460-530 €
Lille, Hauts-de-France
Télétravail partiel
👉 Contexte de la mission Nous renforçons notre équipe Opérations et cherchons un·e SRE pour nous accompagner sur des sujets clés : fiabilité des systèmes, gestion des incidents et automatisation des opérations. 🛠️ Missions principales Garantir la disponibilité, la performance et la scalabilité de la plateforme Gérer les incidents de bout en bout (analyse des causes racines, correctifs, prévention) Améliorer l’observabilité et la qualité de service Automatiser les opérations et le support (software / IA pour Ops) Collaborer étroitement avec les équipes dev, devops et sécurité 🧩 Stack & environnement GCP, Kubernetes, Linux / Python / Terraform / Datadog GitHub / GitHub Actions Réseaux, sécurité (WAF, DDoS)
Mission freelance
Ingénieur Data Ops - IA GEN - Azure (H/F)
Publiée le
Azure
Azure AI Foundry
6 mois
Lille, Hauts-de-France
Télétravail partiel
TEKsystems recherche pour le compte de son client : Un(e) Ingénieur Data Ops : Le rôle couvre notamment : La mise en place d’une plateforme d’IA générative (Azure AI Foundry) ; L’industrialisation des flux et processus DataOps ; La mise en place d’API sécurisées via Azure API Management ; L’automatisation des déploiements à l’aide de GitLab CI/CD ; Le développement en Python ; La mise en place de la traçabilité, de l’observabilité et de la gouvernance des usages IA. Le contexte est structurant, très exposé en interne, avec de la construction from scratch, de l’architecture, de l’industrialisation et un vrai rôle de référent technique sur la GenAI.
Mission freelance
Data Manager domaine RH
Publiée le
Data management
Ressources humaines
8 mois
620-640 €
Paris, France
Télétravail partiel
Pour le compte d’un acteur majeur du secteur bancaire, nous recherchons un Data Manager spécialisé dans le domaine des Ressources Humaines. La mission consiste à rationaliser le parc applicatif RH et à accompagner les projets de migration d’outils, en veillant à l’optimisation des processus et à la qualité des données. Le consultant devra collaborer avec les équipes métier RH et IT pour définir les standards de données, structurer les flux d’information, et garantir l’intégrité et la fiabilité des systèmes. La maîtrise des outils ORACLE et PeopleSoft est indispensable, ainsi qu’un excellent niveau d’anglais pour les échanges internationaux.
Mission freelance
Data Engineer GCP
Publiée le
DBT
Google Cloud Platform (GCP)
18 mois
460-530 €
Rennes, Bretagne
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer GCP pour l'un de ses clients dans le secteur de la restauration à Rennes. Missions principales : Développer et maintenir des pipelines de données fiables et évolutives. Assurer un regard critique sur les données et garantir leur qualité ( quality by design ). Mettre en place des contrôles et validations sur les données, comprendre les contraintes métiers et techniques. Collaborer avec les équipes pour estimer le reste à faire , le chiffrage des tâches et la planification des sprints. Travailler dans un environnement agile (Scrum/Kanban), avec suivi dans Jira . Participer à la mise en place des bonnes pratiques DevOps : Git, CI/CD . Collaborer avec les équipes techniques et métiers pour garantir la pertinence des données. Atouts supplémentaires : Expérience industrielle ou traitement de données en temps réel (Pub/Sub). Capacité à proposer des améliorations ou innovations dans les pipelines et la qualité des données.
Offre d'emploi
Cybersécurité expert / Data N3 Varonis/Purview
Publiée le
Big Data
Microsoft Purview
1 an
40k-45k €
400-700 €
Île-de-France, France
Télétravail partiel
Cybersécurité Expert / Data N3 Mission Prestation d'accompagnement dans le but de proposer des services de sécurité autour de la donnée. La mission sera en charge du maintien en condition opérationnelle et du support niveau 3 de la plateforme de gestion de données et des services sur un périmètre de responsabilité international. (Varonis/Purview) Objectifs Principaux Mise en œuvre, maintien et suivi du déploiement de solutions de sécurité autour des données non structurées à l'aide de solutions de gestion et de sécurisation des données. Tâches Attendues Évaluation des exigences fonctionnelles de l'entreprise et détermination des solutions techniques adaptées
Offre d'emploi
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance
Publiée le
Databricks
Jenkins
Python
1 an
35k-49k €
360-430 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
Mission freelance
Data analyst Power BI / Cognos Orleans. 2 jours de TT.
Publiée le
Cognos
Microsoft Power BI
12 mois
400-450 £GB
Orléans, Centre-Val de Loire
Télétravail partiel
Data analyst Power BI / Cognos Orleans. 2 jours de TT. Environnement technique : Microsoft Power BI Desktop, Report server IBM COGNOS Analytics C11. Base de données : HP Vertica 10.1. Description du poste : Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il exécutera les missions suivantes : Autour de Power BI : être le point de contact technique des utilisateurs finaux ou des réalisateurs de Power BI Desktop, réalisation de reporting complexes Conception et implémentation de Datamarts Autour de COGNOS : analyse d’expression de besoin, création et évolution de rapport / Conception de pack Le poste a une dimension technique mais aussi une dimension relationnelle forte autour de l’analyse des besoins, leur recette et le suivi en mode projet. Connaissances organisationnelles : Suivi de projet en tant que contributeur MOE Relation avec un infogérant Relation avec des équipes sécurité / réseau /etc. Connaissances techniques : Le profil recherché doit maitriser les solutions techniques suivantes : Power BI Desktop / Power BI Report Server / DAX / RLS - expérience : 2 années minimum Modélisation de données : constitution de datamart - expérience : 4 années minimum COGNOS C11 : conception de rapport - expérience : 1 années minimum COGNOS C11 : framework - expérience : 1 années minimum Optimisation SQL - expérience : 4 années minimum Idéalement des connaissances sur l’administration fonctionnelle ou technique d’une plateforme Power BI Report server (on premise) Il faut la double compétence Power Bi / Cognos et un très bon relationnel.
Mission freelance
Chef de projet senior Data - Temps partiel
Publiée le
Data analysis
Data Warehouse
RGPD
18 mois
100-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte Experience : 10 ans et plus Métiers Fonctions : Data Management, Chef de projet Senior Spécialités technologiques : Transformation digitale Mission L’organisation souhaite structurer et mettre en œuvre une gouvernance de la donnée pour soutenir sa transformation digitale, améliorer son excellence opérationnelle et piloter ses activités à partir de données fiables, accessibles et sécurisées. Nous recherchons un chef de projet senior spécialisé en data pour poursuivre la construction de la gouvernance de la donnée et garantir son intégration dans les outils, les méthodes et l’architecture fonctionnelle et technique en cours d’urbanisation. MISSION : Le consultant devra notamment : - Structurer et déployer une gouvernance de la donnée adaptée au contexte. - Diffuser les concepts fondamentaux de la data dans les méthodes et projets existants - Veiller à la bonne prise en compte des exigences data dans les systèmes techniques et métiers, ainsi qu’à la mise à disposition autonome des données via des outils de data visualisation - Challenger la démarche existante, les actions et les ressources au regard de la feuille de route et des ambitions - Sécuriser la méthode et les étapes pour accompagner la montée en maturité data Le consultant collaborera étroitement avec : - Un chef de projet data déjà en poste, notamment sur les problématiques liées à la dématérialisation - La direction numérique, la DSI et les directions métiers Expertise souhaitée - Expérience confirmée en gouvernance de la donnée et projets data - Maîtrise des enjeux réglementaires (ex. : RGPD) - Connaissance des architectures data (data lake, data warehouse, MDM) - Compétences en pilotage de projets complexes et conduite du changement - Capacité à vulgariser les concepts data et à mobiliser les parties prenantes
Mission freelance
Data Analyst - Part-time (DBT - GitLab- Looker- BigQuery)
Publiée le
BigQuery
Data analysis
Data cleaning
6 mois
350-470 €
Genève, Suisse
Télétravail 100%
Cette mission est en Mi-Temps Nous recherchons deux data analyst pour une migration de modèles DBT afin de changer une partie du sourcing de la partie principale des Datamarts. Environnement & Contexte : Principalement pour les tables Client & Transactions, mais aussi d’autres modèles (Campaign, Clienteling), nous souhaitons ne plus nous sourcer sur un Datalake central, mais sur des données préparées dans un Datamart par une autre équipe, ce qui permettra de simplifier les scripts et supprimer les transformations. Il est crucial d’assurer la consistance des Data à tous les niveaux. Une analyse de gap sur les outputs principaux (Transaction, Client) a déjà été effectuée, avec un presque alignement au niveaux du nombre de record par Primary Key, mais au cours de la migration, il y aura forcément des différences relevées sur les dimensions/mesures, que vous allez devoir analyser, investiguer et remonter. Le Data Engineer aura pour mission principales : Revoir une bonne partie des modèles DBT dans notre Datamart Client qui contient environ 45 modèles finaux (et 60 modèles intermédiaires), pour modifier le sourcing (au lieu de sources brutes, se reposer sur un Datamart qui contient déjà certains indicateurs que nous préparions de notre côté) Simplifier et supprimer les transformations du script Client pour en simplifier la maintenance, et les investigations. Test de non regression sur le modele final, pour garantir que les outputs sont ISO (ou très proches, avec investigations des écarts et remontée/échanges avec l’équipe en charge du Datamart) Validation dans les outils finaux (explores/dashboards Looker) de la consistance des chiffres. Mise à jour de la documentation des modèles (SQL, Yaml, Confluence, Data Model)
Offre d'emploi
Expert Big Data / Data Engineer Senior (H/F)
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
6 mois
80k-85k €
500-550 €
Guyancourt, Île-de-France
Télétravail partiel
VOS RESPONSABILITES PRINCIPALES : Build – Modernisation & migrations Data Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP). Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs…). Travailler avec les architectes et les CloudOps sur les architectures distribuées. Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA . Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD). Animer ateliers, documentation et transfert de compétences. Run – Support N2/N3 & performance Résolution d’incidents techniques Big Data (HDFS, Spark, Kafka, Flink…). Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation. Montée de version, patching, maintenance préventive. Participation aux astreintes (rotation). Amélioration continue & fiabilisation des environnements critiques. Application stricte du cadre ITIL V4 (incidents / problèmes / demandes).
Mission freelance
Product Lead Data / Directeur projet (Montpellier)
Publiée le
Data governance
Product management
12 mois
600 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Product Lead Data / Directeur projet" pour un client dans le secteur des services Description 🎯 Contexte de la mission La Direction Data renforce ses équipes dans le cadre de la montée en puissance du domaine Data, Analytics & AI . Afin de garantir la qualité, la cohérence et la performance des livrables Data à l’échelle du groupe, le client recherche un Product Lead / Directeur de projet expérimenté . Placé directement sous la responsabilité du Responsable de Domaine , le Product Lead jouera un rôle clé dans la gouvernance, la stratégie et le delivery des Data Products , tout en assurant la tenue des engagements métiers et techniques. ⚙️ Rôle et responsabilités En tant que Product Lead, vous serez le garant du delivery, de la performance technique et de la qualité des composants de la ligne de produit Data, Analytics & AI. Vos principales missions : Piloter la ligne de produit Data, Analytics & AI sur les volets fonctionnels, techniques et stratégiques. Collaborer étroitement avec les Delivery Owners , Directeurs de programme et le Responsable de ligne de produit pour garantir la cohérence globale et la qualité des solutions. Contribuer à la stratégie de la ligne produit : dimensionnement des équipes, choix technologiques, modèle de coûts, sourcing et plan de delivery. Superviser la production et la maintenance des produits Data (disponibilité, performance, fiabilité). Assurer le suivi opérationnel : calendrier des évolutions, publications, roadmap technique et fonctionnelle. Définir et appliquer la politique d’industrialisation et de maintenance de la ligne de produit (qualité, CI/CD, automatisation). Accompagner et soutenir les Feature Teams dans la montée en compétence et la réalisation des objectifs. Collaborer avec les équipes agiles pour suivre les charges, les alertes et le staffing. Maintenir la documentation technique et fonctionnelle (Wiki, SharePoint, Teams). Contribuer à la pérennité technologique du patrimoine Data en réduisant la dette technique et en garantissant la conformité DSI. Assurer la coordination avec la DEXO (gestion de crise, gestion de la proximité avec les partenaires).
Mission freelance
Data Scientist - (h/f)
Publiée le
12 mois
400-450 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ce poste vise à exploiter les données grâce à des modèles statistiques et des analyses avancées afin de faciliter des décisions commerciales éclairées et d’optimiser les résultats. Responsabilités : Développer des modèles statistiques et des algorithmes en utilisant une approche expérimentale et de découverte. Exécuter une modélisation avancée des données pour extraire des insights et des prédictions. Créer une chaîne analytique complète incluant la transformation, la structuration, la modélisation, la visualisation et l’obtention d’insights exploitables. Utiliser divers outils et méthodes pour appliquer des analyses avancées aux défis métier et optimiser les résultats. Compétences : Maîtrise de la modélisation statistique et des algorithmes. Expérience dans l’exécution de modèles de données avancés. Solides compétences en transformation et visualisation des données. Capacité à créer des insights exploitables à partir des données. Bons à avoir : • Familiarité avec les techniques d’apprentissage automatique. • Expérience avec des outils de visualisation de données comme Tableau ou Power BI. • Connaissance des stratégies d’optimisation métier.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
1963 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois