Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 520 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer Expérimenté

Publiée le
Microsoft Power BI

18 mois
40k-45k €
100-450 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions :Data Management Data Engineer Spécialités technologiques : ETL, Gouvernance des données, Intégration de données MISSIONS Notre client est engagé dans une transformation en profondeur et la modernisation de son Système d’Information. Les équipes Data, intégrées à la DSI, jouent un rôle central dans la réussite de ces projets de modernisation, tant sur le plan technologique que métier. Vous interviendrez sur plusieurs axes clés : - Conception et développement d’outils et de processus de gouvernance des données. - Mise en place d’outils de pilotage de la qualité, de la sécurité et de la traçabilité des données. - Développement de solutions et de processus visant l’amélioration continue de la qualité de service. - Participation au suivi de la production en tant que lead de l’équipe Data sur les projets de run. - Analyse des incidents de production et des tickets utilisateurs de niveau 1. - Développement et maintenance des traitements ETL Batch Data sous Semarchy xDI. - Rédaction et publication de rapports et indicateurs flash sur la qualité de service du SI Data. Vos missions : - Développer des traitements de contrôle de la qualité des données, notamment industrialisés - Assurer le suivi de production et l’analyse des incidents de premier niveau. - Traiter et résoudre les incidents liés à la qualité des données : analyser les causes, identifier et solliciter les bons interlocuteurs pour leur résolution. - Contribuer à l’amélioration continue et au renforcement de la qualité de service, en collaboration avec les équipes de Gouvernance des Données.
CDI
Freelance

Offre d'emploi
Data engineer

Publiée le
autonomie

12 mois
47k-55k €
450-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de notre pôle Data, nous recherchons un Data Engineer confirmé capable de concevoir, développer et industrialiser des solutions de traitement et de valorisation de données dans un environnement cloud (AWS). Vous interviendrez sur des projets stratégiques de construction de plateformes data modernes, à forte volumétrie et en lien direct avec les métiers. Vos principales missions :Architecture & Développement Concevoir et mettre en œuvre des pipelines de données robustes et scalables Construire et maintenir des Data Lakes et Data Warehouses modernes Développer des traitements ETL / ELT performants et automatisés Participer à la modélisation et l’optimisation des structures de données Qualité & Sécurité Garantir la qualité, la fiabilité et la traçabilité des données Implémenter des bonnes pratiques de sécurité et de gouvernance (IAM, RBAC, encryption, etc.) Mettre en place des mécanismes de monitoring et d’alerting Collaboration & Innovation Travailler en étroite collaboration avec les équipes Data Science, BI et Cloud Participer à la veille technologique et aux choix d’architecture Contribuer à la mise en place de standards et bonnes pratiques DevOps Data Environnement technique : AWS S3, Redshift, Glue, Athena, EMR, Lambda, Step Functions PySpark, Python, SQL Terraform, CloudFormation, CloudWatch, IAM, KMS
Freelance

Mission freelance
Technicien Datacenter

Publiée le
Data Center
Data management

3 ans
Rennes, Bretagne
Au sein de la Section Exploitation, Réseaux et Sécurité (SERS) , nous recherchons une prestation pour renforcer l’équipe en charge de l’environnement technique du datacenter. Pilotage des prestataires en charge de l’environnement technique bâtimentaire Challenge des choix techniques et des devis proposés Rôle orienté "chef de salle" : garant du bon fonctionnement et de la fiabilité des infrastructures techniques Compétences clés Capacité à coordonner et challenger des prestataires techniques Connaissance des normes et contraintes datacenter Rigueur, autonomie et sens des responsabilités
Freelance

Mission freelance
Data analyst - maitrise SQL requise - secteur Assurance - Le Mans

Publiée le
Data analysis

6 mois
560-600 €
Le Mans, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) freelance Data Analyst disposant d’une solide expérience en assistance à maîtrise d’ouvrage, pour accompagner notre client du secteur de l’assurance dans ses activités de pilotage et d’analyse de données. Missions principales : • Analyser et comprendre les besoins métiers liés au domaine de l’assurance et plus spécifiquement à l’indemnisation • Explorer les bases de données existantes et concevoir / adapter des requêtes sous SAS V9 • Être le point de contact privilégié pour le suivi du RUN et la gestion quotidienne des indicateurs • Participer à la gestion de projets techniques et à la production de reporting Compétences : • Solide maîtrise du SQL • Bonnes capacités de communication écrite et orale • Aptitude à formaliser les besoins métiers • Connaissance opérationnelle de SAS V9 (un test SAS sera réalisé) Optionnelles : • Connaissance du VBA Profil recherché • Expérience significative dans le domaine de l’actuariat ou de l’assurance (indispensable) • Goût pour l’analyse, la précision et le travail collaboratif
CDI
Freelance

Offre d'emploi
Data Engineer H/F

Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI

12 mois
45k-55k €
350-450 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Data Engineer expérimenté à sénior pour intervenir sur un projet Data pour l’un de nos clients situé à Aix-en-Provence. Contexte et mission : Dans le cadre du renforcement de l’équipe Data, vous serez intégré.e à une squad dédiée à la création d’une infrastructure robuste pour le produit DATA. Vous participerez à la conception et au développement de processus d’ingestion, de transformation et d’exposition des données sur la plateforme Google Cloud Platform (GCP). Vous collaborerez étroitement avec d’autres équipes pour : Mettre en place les jobs d’ingestion et de préparation des données. Développer des pipelines de données performants et maintenables. Exploiter les outils de l’écosystème cloud : Composer, dbt, BigQuery. Contribuer à l’amélioration continue des capacités de livraison du produit DATA. Environnement technique : GCP BigQuery, Linux, Python, SQL, dbt, Composer.
Freelance

Mission freelance
Data Engineer (F/H) - 56

Publiée le
Apache Kafka
Java
Shell

1 an
Vannes, Bretagne
Télétravail partiel
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
Freelance

Mission freelance
Data Product Manager / Revenue Management

Publiée le
Data analysis

6 mois
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Notre client recherche un Product Manager Revenue & Distribution Management pour piloter les activités de deux features teams : “Distribution Performance” et “Revenue Performance”. Nous recherchons un véritable Product Manager, avec une approche orientée valeur, business et utilisateur s, et non un profil chef de projet classique (MOE/MOA) ou un directeur de projet. Le rôle nécessite une capacité à définir une proposition de valeur claire, à ===> Les équipes Data du groupe sont regroupées au sein de la Digital & Business Factory sous la responsabilité unique du Chief Data Officer. Leur mission première est de fournir à l'ensemble de l'entreprise - des hôtels à la direction, en passant par les différents métiers - des produits Data et Analytics servant de multiples usages. Ces équipes sont en pleine modernisation (passage au cloud massif) et transformation agile à l’échelle. Environ 170 personnes composent cette verticale et sont organisées en tribu, squad et chapter de manière similaire au modèle Spotify. La richesse de cet écosystème, l'esprit d'innovation et le sens du service caractéristique à la culture hotellière de notre client, sont les forces qui les motivent au quotidien. ==> La tribe Distribution & Hotel Services (DHS) Au sein de la verticale data, la tribe DHS fournit des produits et des services digitaux permettant d’optimiser la performance des hôtels et les revenus pour notre client, ainsi que d’alimenter différents systèmes et analyses basés sur la donnée. Dans ce contexte, DHS recherche un(e) Product Manager pour piloter les activités de deux des feature teams de la Tribe : - Distribution Performance : développe des produits permettant de calculer les redevances dues par les franchisés du groupe, de mesurer et d’analyser la performance globale de la distribution ainsi que d’identifier de nouvelles pistes d’améliorations de la distribution, etc. - Revenue Performance : conçoit des outils de pilotage du revenu pour soutenir la prise de décision opérationnelle et la planification stratégique, avec une vision long terme et une optimisation en temps réel. Ce rôle transverse vise à assurer la cohérence globale des produits, à maximiser leur impact business, et à fluidifier la coordination entre les équipes produit, tech et les parties prenantes métier. **OBJECTIF DU POSTE ** Le Product Manager aura pour mission de : - En collaboration avec le Data Product Director, définir la stratégie d’évolution des produits, en intégrant les retours utilisateurs, les tendances du marché et les opportunités technologiques. - Définir, faire évoluer et piloter le portefeuille produit des deux features teams : le rationnaliser et le rendre cohérent, avec une proposition de valeur claire pour les utilisateurs finaux - Coordonner les activités des deux feature teams, en assurant la cohérence fonctionnelle et stratégique des produits développés. - Donner de la hauteur aux initiatives produit, en assurant une vision transverse et orientée impact business. - Superviser les Product Owners des deux équipes, qui lui sont rattachés opérationnellement, en s’assurant notamment de la cohérence du cadre méthodologique et du respect des standards Produit. Le Product Manager s’assure aussi du reporting régulier, précis et à jour auprès des parties prenantes business et du management. - Gérer la relation avec les parties prenantes métiers (Revenue Management, Distribution, Tech, BI Hubs, etc.) pour garantir l’alignement des besoins et des priorités. Le Product Manager s’assure également que les PO collaborent efficacement avec leurs parties prenantes opérationnelles (Business, Tech Lead, Data Analyst, Data Scientist) ** ACTIVITÉS PRINCIPALES** Le Product Manager interviendra sur les dimensions suivantes : - Cadrage stratégique des besoins fonctionnels et des priorités business. - Suivi de la roadmap produit en lien avec les PO et Tech Leads. - Pilotage de la valeur délivrée, en identifiant les quick wins et en assurant un suivi des KPIs produits. - Animation des rituels produit et coordination transverse entre les deux feature teams. - Représentation du produit auprès des stakeholders internes et externes. - Contribution à la cohérence globale du portefeuille produit, en s’assurant que les initiatives des deux équipes convergent vers les mêmes objectifs business.
Freelance

Mission freelance
Prevoyance - Team Leader - Proche Chartres

Publiée le
Gestion de projet
Safe

3 mois
Chartres, Centre-Val de Loire
Télétravail partiel
Dans le cadre de la relance de notre appel d’offre, nous recherchons un Team Leader Prévoyance pour piloter et animer les activités de la tribu Prévoyance . Le poste, basé à proximité de Chartres (Véhicule nécessaire), s’inscrit dans un contexte de transformation et de modernisation de nos systèmes autour des solutions de prévoyance. Missions principales En tant que Team Leader Prévoyance , vous serez responsable du management d’une équipe IT et du pilotage du delivery sur les périmètres projets et RUN. Vos principales missions seront : Management et coordination Encadrer une équipe d’environ 20 collaborateurs internes et externes (Product Owners, Business Analysts, développeurs RPG free). Assurer la montée en compétence, la motivation et la cohésion de l’équipe. Animer les rituels d’équipe (suivi d’avancement, points d’équipe, entretiens, etc.). Garantir la qualité et la performance des livrables. Pilotage du delivery Superviser le delivery des projets et du RUN de la tribu Prévoyance. Planifier, prioriser et suivre les activités en lien avec les PO et les parties prenantes métier. Assurer la bonne coordination entre les équipes IT et métier pour garantir le respect des engagements (coûts, délais, qualité). Contribuer à l’amélioration continue des processus et pratiques de delivery. Expertise métier et technique Apporter votre vision et expertise du domaine de la Prévoyance . Comprendre les enjeux fonctionnels et réglementaires liés à la Prévoyance. Avoir une bonne compréhension des environnements techniques, notamment autour du RPG free (IBM i)
CDI

Offre d'emploi
Product Owner Data H/F

Publiée le

45k-50k €
Annecy, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : ohsw8wehfq
Freelance

Mission freelance
Consultant SIRH Data Pléiades

Publiée le
Big Data
PLEIADES
SIRH

6 mois
Île-de-France, France
Télétravail partiel
Missions principales : • Recueil & cadrage des besoins : Identifier et formaliser les besoins métiers du contrôle de gestion concernant les Data RH. Définir les indicateurs clés RH (effectifs, absentéisme, turnover, masse salariale, etc.). Prioriser les besoins en fonction des enjeux stratégiques. • Spécifications fonctionnelles : rédiger les spécifications fonctionnelles d’extraction et de transformation des données RH (Pléiades, Sopra, Horoquartz). Documenter les règles de gestion existantes et à mettre en place. Formaliser un dictionnaire de données RH partagé et pérenne. • Collaboration avec les équipes Data : travailler en étroite relation avec les équipes Data/BI en charge de la réalisation technique (Microsoft Fabric, Power BI). Assurer la cohérence et la qualité des données intégrées au Data Lake. Participer à la recette fonctionnelle des flux et des tableaux de bord RH. • Contribution à la gouvernance Data RH : Structurer les processus de mise à jour et de documentation. Contribuer à la démocratisation et à l’accès sécurisé des données RH.
Freelance

Mission freelance
Developpeur confirmé sur EBX

Publiée le
Data quality
Master Data Management (MDM)
TIBCO

1 an
450-550 €
Île-de-France, France
Télétravail partiel
1. Contexte général Notre client est un grand groupe international de logistique et de transport . Dans ce type d’entreprise, les données de référence (ou MDM – Master Data Management) jouent un rôle clé : elles garantissent que toutes les entités (filiales, pays, systèmes) utilisent des informations cohérentes sur les clients, les fournisseurs, les produits, les sites, etc. Vous intégrez l’équipe en charge de : Construire et maintenir les référentiels de données du groupe , S’appuyer sur la solution EBX , un outil MDM édité par TIBCO. 2. Le rôle à pourvoir Notre client recherche 1 développeur confirmé EBX qui viendra renforcer l’équipe MDM. Cette personne travaillera avec les Product Owners et d’autres développeurs sur : la modélisation des données (définition des structures et relations entre entités : clients, fournisseurs, produits, etc.), la mise en place de workflows de validation (processus de validation ou d’enrichissement des données par plusieurs acteurs avant publication), la création ou l’évolution de nouveaux référentiels MDM (certains déjà existants, d’autres à construire). 3. Compétences techniques demandées Maitrise de l’outil EBX avec en particulier : la configuration et le développement dans EBX (data model, formulaires, règles, scripts, vues, etc.), la gestion de workflows complexes (multi-acteurs, étapes de validation, notifications, etc.), une bonne compréhension des concepts MDM : golden record, hiérarchies, gouvernance de la donnée, intégration avec d’autres systèmes. Obligatoire : avoir une expérience significative sur la mise en œuvre de référentiels MDM avec l'outil EBX avec des workflows de validation complexes 4. Compétences fonctionnelles et humaines Travailler en mode agile → participation active aux sprints, daily meetings, collaboration étroite avec PO et autres développeurs. Travail en équipe → capacité à s’intégrer dans une équipe MDM existante. Orientation solution / pragmatisme → ne pas seulement coder, mais proposer des solutions simples et efficaces aux problèmes de gestion de données. 5. Leur besoin réel En résumé, on cherche un profil capable de : développer et paramétrer EBX pour répondre aux besoins métiers, garantir la qualité et la cohérence des données de référence , participer activement aux nouveaux projets MDM du groupe (nouveaux domaines, intégration de filiales, etc.).
Freelance

Mission freelance
Data Analyst Social Listening ( 4 ans xp)

Publiée le
Data analysis
IA Générative

120 jours
400-480 €
Paris, France
Télétravail partiel
Contexte de la prestation : La prestation s’inscrit au sein de la Direction de la Communication Digitale de France Télévisions. Elle vise à conduire des analyses quantitatives et qualitatives relatives à la réputation du groupe sur les réseaux sociaux et le web. Le prestataire travaillera en lien étroit avec l’équipe communication digitale et contribuera au pilotage opérationnel de la veille, de l’analyse et des recommandations stratégiques. Missions : 1. Veille et suivi en temps réel : > Assurer une veille continue, réactive et structurée des conversations sur les réseaux sociaux et le web via des outils de social listening. > Surveiller en temps réel les signaux faibles, les sujets sensibles et les potentiels sujets de crise. > Effectuer la veille en direct lors d’émissions diffusées en soirée. 2. Analyse et production de livrables > Produire des notes d’analyse synthétiques et rapides : - Notes quotidiennes - Notes mensuelles - Analyses thématiques - Notes ad hoc selon actualité - Effectuer des études réputationnelles dans le cadre de campagnes ou dispositifs de marketing d’influence. 3. Recommandations et accompagnement stratégique - Construire des recommandations éditoriales et stratégiques à destination de la Direction de la Communication Digitale et d’autres directions internes. - Proposer des pistes d’amélioration ou d’optimisation des dispositifs de communication digitaux. 4. Collaboration interne - Travailler en étroite collaboration avec l’équipe communication digitale et contribuer à la coordination lors des sujets urgents ou sensibles. Expertises et compétences requises : > Expérience - Minimum 1 an d’expérience dans le secteur des médias et/ou du secteur public. - Minimum 5 ans d’expérience en social listening, incluant l’analyse de données conversationnelles.
Freelance
CDI

Offre d'emploi
Data Analyst

Publiée le
Pandas
PySpark

1 an
Île-de-France, France
Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.
CDI
Freelance

Offre d'emploi
Ingénieur DevOps Big Data (H/F)

Publiée le
Ansible
Apache Kafka
Cloudera

1 an
55k-65k €
500-520 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
Freelance

Mission freelance
Intermediate Data Engineer

Publiée le
API
AWS Cloud
Big Data

12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
CDI

Offre d'emploi
Chef de projet data

Publiée le
Data analysis
Gestion de projet

40k-55k €
Levallois-Perret, Île-de-France
Télétravail partiel
Organiser deux programmes data de la tribe IT Data PF: - Programme de transformation des solutions data analytics (stream Technologies) - Programme de définition du plan stratégique data 2027-2030 Ces deux programmes se réalisent dans un cadre méthologique Agile et le poste recherché est un Opus Owner qui va travailler avec les Product Owner/Squad et Centre d'expertises en transversal afin de structurer et animer la backlog de ces deux programmes. - Programme de transformation des solutions data analytics (stream Technologies) - 90% du temps En support du stream leader technologie: cadrer le besoin autour des plateformes data, traduire en exigence produit, budgétiser, planifier, préparer l'exécution du programme, des intéractions entre squads plateformes et produit - Programme de définition du plan stratégique data 2027-2030 - 10% du temps Structuration du stream, animation d'une communauté internationale, formalisation stratégie La mission concerne le cadrage et pourra s'étendre à l'exécution des programmes. Le poste est rattaché à l'IT Tribe Lead data.
2520 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous