L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 272 résultats.
Offre d'emploi
Data Analyste (13)
Publiée le
Confluence
Piano Analytics
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'un groupe audiovisuel français. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. Description du poste La Direction Data recherche une prestation en Data Analyse pour accompagner les équipes produits et éditoriales dans l'analyse de la performance de la plateforme de streaming vidéo du groupe. La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes internes, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet) Le maintien du bon fonctionnement des dashboards existants sur Power BI L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne) La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul Le partage de son expertise afin de déployer le marqueur interne sur d'autres produits L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes
Mission freelance
Architecte Cloud & On-Premises (anglophone) – Expertise FinOps
Publiée le
Architecture
Azure
Cloud
12 mois
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Architecte Cloud & On-Premises anglophone , intervenant sur l’optimisation des coûts d’un environnement multi-cloud et d’infrastructures on-premises. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/FIN/4975 dans l’objet de votre message La prestation consiste à optimiser les coûts Cloud et On-Premises dans un environnement multi-cloud global, en produisant des rapports détaillés, en mettant en œuvre la gouvernance, en soutenant les équipes internes et en fournissant des recommandations structurées. . Gouvernance Cloud & On-Premises Contribuer à la définition de la gouvernance pour les environnements Cloud et On-Premises. Participer à la mise en œuvre opérationnelle de cette gouvernance. 2. Production et amélioration des rapports Cloud & On-Premises Produire des rapports pertinents sur la consommation et les coûts Cloud & On-Premises. Améliorer en continu ces rapports pour les rendre exploitables par le management. Fournir des rapports permettant de piloter la conformité, la consommation et les coûts. 3. Collaboration avec des équipes transverses globales Collaborer avec des équipes multifonctionnelles basées dans plusieurs pays. Comprendre leurs besoins et contribuer à l’analyse des données. Établir des partenariats de travail permettant d’atteindre des résultats FinOps tangibles. 4. Support aux équipes Infrastructure & Operations (I&O) Accompagner les équipes I&O dans la définition d’objectifs et de KPI pertinents. Participer à la récupération, structuration et modélisation des données nécessaires au pilotage des coûts. 5. Cartographie des flux de données Cartographier, avec les équipes I&O, les flux de données relatifs aux environnements Cloud et On-Premises. Aider à construire un modèle de données supportant les travaux FinOps. 6. Analyse et prévision des coûts d’hébergement Analyser les coûts d’hébergement Cloud & On-Premises. Élaborer des prévisions (forecast) pour anticiper l'évolution des dépenses. 7. Recommandations d’optimisation Formuler clairement des recommandations d’optimisation des coûts. Accompagner et suivre la mise en œuvre de ces recommandations. 8. Appui à la prise de décision via les données Utiliser des outils et technologies permettant des décisions data-driven. Contribuer à l’amélioration de la capacité analytique et du reporting FinOps. 9. Contribution aux projets et programmes Aider projets et programmes à réaliser des estimations de coûts. Construire et formaliser des modèles de coûts et de financement. Contribuer à l’élaboration de business cases internes.
Mission freelance
Senior Data Engineer
Publiée le
Google Cloud Platform (GCP)
Python
Terraform
210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Mission freelance
Business Analyst Plateforme Data IA
Publiée le
Dataiku
SAS
1 an
500-550 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Business Analyst Plateforme Data IA. Compréhension fine des enjeux de développement de cas d'usages Data et déploiement de l'IA Gen pour les équipes du Client (développements privatifs et enjeux de communautarisation) Participer au suivi du projet d' IA Studio en appui au dispositif existant (apport d'expertise sur le choix de solutions, valeurs et contraintes d'environnement et d'architecture, participer à la feuille de route d'implémentation qui doit permettre l'ouverture des premières fonctionnalités en 2026 Capacité à anticiper, planifier les réunions nécessaires pour construction des livrables, Participation à la construction du dossier de cadrage (cadrage à terminer devant reprendre les éléments pertinents des séquences passées), aide à la construction des documents clés comex produits, ateliers PU/CR, documents préparatoires intermédiaires, échanges avec les parties prenantes des équipes du PP/PU Data et dans l'écosystème du Client (ex architecture...)/infogérant du Client en détaillant le retroplanning cadencé avec les jalons identifiés sur 2026. Connaissance plateforme Data dont SAS Viya (solution et intégration des capacités IA Gen...), Dataiku...
Mission freelance
Chef de Projet Data Migration – Projet d’intégration S/4HANA
Publiée le
SAP
6 mois
Marne, France
Télétravail partiel
Contexte: Notre client, un acteur industriel majeur, engage un projet d’intégration ambitieux visant à remplacer tout ou partie de ses systèmes sources par l’ERP S/4HANA. Dans ce cadre, nous renforçons l’équipe Migration avec un profil expérimenté pour piloter les activités et la production des livrables sur un domaine fonctionnel ciblé. Environnement technique: S/4HANA, outils de migration (ex: SAP Data Services, LTMC), suites de tests (SAP TAO, SolMan). Type de contrat: Freelance (via ZENITH). Poste ASAP
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
MOA – Application ATHENES Bilingue sur Paris
Publiée le
CSS
Data Lake
Java
3 mois
Paris, France
Télétravail partiel
Je recherche pour un de mes clients un MOA – Application ATHENES sur Paris Pour l’application ATHENES le périmètre couvre : application est dédiée à l'activité de gestion des participations o La prise en charge des éléments du backlog d’ATHENES : Backlog éditeur Interfaçage CDC (flux) DataLake / Tableau Développement de Proximité Bureautique, etc. au travers de la maintenance corrective et évolutive : expression des besoins, analyse, configuration, recette o Le support utilisateur o La gestion des incidents de production, en relation avec les équipes métiers o La documentation des points ci-dessus o Suivi de KPI éditeurs o Relation avec l’éditeur, comitologie en interne et avec l’éditeur Compétences • Forte expérience en maîtrise d’ouvrage et en support sur les métiers liés au franchissement de seuil (seuils, types, déclarations, etc.) et OPA. • Connaissance approfondie de l’outil Signal de CSS/Confluence (paramétrages, configuration des règles d’alertes, ETL Studio, etc.) • Connaissance approfondie sur l’implémentation de Signal chez d’autres clients • Connaissance des règles de franchissements de seuils règlementaires et statutaires sur plusieurs juridictions (EU, USA, G20), OPA, règles sur l’actionnariat (loi Florange) • Connaissance approfondie de l’anglais (éditeur anglophone) • Connaissance approfondie du langage SQL. • Connaissance approfondie d’Excel (VBA, TCD, etc.) et la programmation (Python). • Connaissance des marchés et des instruments financiers • Connaissance des plateformes (Refinitiv) Démarrage: ASAP Durée Longue
Mission freelance
POT8806 - Un Architecte Data sur Massy Palaiseau
Publiée le
Architecture
6 mois
Massy, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Architecte Data sur Massy-Palaiseau. Besoin : Au sein d’une équipe pluridisciplinaire client, composée d’un chef de projet à la DPT, de fonctions DSI (architect cloud, digital factory …), d’architectes d’entreprises DSI et métiers, de data managers, l’objectif de la prestation sera : Proposer une architecture de data platform (potentiellement plusieurs) respectant la sensibilité des données Si plusieurs data platforms, celles-ci devront être interopérables et équivalentes en termes de fonctionnalités. Identifier la logique d’organisation des données et préciser les conditions (données entrantes) pour une utilisation finale optimale et au niveau attendu par les opérationnels. Idéalement, étudier la possibilité d’avoir un moyen (interface ? ) unique pour les requêtes de data sets. Proposer une logique projet « built » et le « run » associé, c’est dire l’ensemble du processus Proposer une gouvernance adaptée (qui, comment, accès, outputs, temporalité etc. ) Proposer une stratégie de documentation et une trame. Le client souhaiterait avoir un accompagnement externe d’un data architect confirmé. La proposition devra prendre en compte les éléments suivants : Connaissant le cloud AWS et l’architecture de platform on Premise Connaissance des pratiques d’urbanisation des applications (Fiche d’identité/Fact sheet, Cartographie des flux) Très bonnes compétences SI générales. Capacité à animer des comités de pilotage Capacité à travailler avec autonomie, à solliciter avec discernement les parties prenantes et à animer des échanges. Un savoir-être orienté vers la proactivité, la communication et la capacité à questionner les usages lorsque nécessaire. Anglais (obligatoire – échanges avec l’Inde) Prestation Attendue : Il est attendu du prestataire une assistance : Une architecture détaillée de data platform répondant aux besoins opérationnels et aux contraintes de sensibilité des données Un plan de mise en œuvre de cette architecture (feuille de route détaillant les étapes, la mobilisation des acteurs à solliciter, les relais associés, l’accompagnement au changement, le processus) Une proposition de gouvernance pour l’alimentation et l’utilisation des données. Comptes rendus de réunions et décisions prises lors des instances de gouvernance (Comités de suivi, Ateliers d’arbitrage) Suivi des sollicitations / réponses obtenues KPI d’avancement et de performance L’animation de la campagne sera animée en autonomie avec les sachants et donneront lieu à un suivi d’avancement. Le prestataire veillera à respecter le cadre de mis en œuvre définit par l’encadrement du chantier. Localisation : Massy Palaiseau + TT
Mission freelance
Senior Data Scientist Python / ML / LLM / Agentic AI
Publiée le
Large Language Model (LLM)
MLOps
Python
12 mois
400-550 €
Paris, France
Télétravail partiel
Contexte Développement de solutions IA avancées pour le projet du client Missions Concevoir, entraîner et optimiser des modèles ML et LLM Implémenter des architectures Agentic AI Industrialiser les modèles (MLOps, monitoring, performance) Collaborer avec les équipes produit et tech Garantir la robustesse et l’éthique des modèles en production Profil recherché 10+ ans d’expérience en data science Excellente maîtrise de Python et des frameworks ML Expérience réelle de LLM et Agentic AI en production Forte capacité d’abstraction et de vulgarisation Experience en IA / AI en production ANGLAIS ASAP
Offre d'emploi
Chef de projet Data
Publiée le
Business Object
Microsoft Power BI
Shell
1 an
Paris, France
Pour un client du secteur bancaire , nous recherchons un Chef de Projet Data avec 8 à 10 ans d’expérience . Démarrage ASAP – URGENT Compétences clés Connaissance du domaine Finance Expérience bancaire Power BI, Business Objects, Shell Missions principales Pilotage et coordination de projets Data / BI Encadrement et coordination d’équipes techniques Recueil et analyse des besoins métiers Suivi des développements, gestion des risques, planning et reporting Animation des comités et communication projet Garantie de la qualité des livrables (SFG/SFD, tests, MEP, documentation)
Mission freelance
Un(e) Data Analyste - Maintenance évolutive d'une application de reporting
Publiée le
IBM DataStage
Microsoft Power BI
Microsoft SQL Server
6 mois
400-480 €
Bois-Colombes, Île-de-France
Télétravail partiel
Data Analyste Expert - Maintenance évolutive d'une application de reporting Contexte : Nous recherchons pour un(e) consultant(e) Data Analyste BI confirmé(e) pour assurer la maintenance évolutive et contribuer à l'amélioration continue d'une application de reporting interne dédiée au suivi commercial. Cette application joue un rôle clé en collectant des données stratégiques et en les mettant à disposition des utilisateurs internes afin de suivre et analyser la performance commerciale. Missions : En tant que Data Analyste confirmé, vous serez chargé(e) de la gestion opérationnelle de l’application de reporting et participerez activement à un projet stratégique visant à optimiser le processus de collecte et de mise à jour des données. Ce projet a pour objectif de simplifier les flux de données, réduire au minimum les traitements manuels, et accélérer le cycle de mise à jour des informations tout en garantissant une qualité de données irréprochable. Plus spécifiquement, vous serez amené(e) à : • Assurer la maintenance évolutive de l'application existante, en veillant à son bon fonctionnement et à l’intégration des évolutions nécessaires pour répondre aux besoins internes. • Contribuer à l'amélioration du processus de reporting en travaillant sur l’automatisation de la collecte de données et l'optimisation des traitements, afin de simplifier le processus tout en préservant la fiabilité et la précision des données. • Collaborer avec l’équipe interne pour définir les besoins fonctionnels et techniques, et pour déployer des solutions adaptées à l’amélioration de l'analyse de la performance commerciale. • Apporter une expertise technique et fonctionnelle pour l’optimisation des outils de reporting et pour le développement de nouvelles fonctionnalités. • Prendre en charge la maintenance des solutions déployées en apportant des améliorations continues et en veillant à leur adéquation avec les exigences métiers. • Effectuer une analyse détaillée des données afin d’identifier des axes d’amélioration dans les processus existants et proposer des solutions efficaces et adaptées aux enjeux commerciaux de l’entreprise. • Assistance aux utilisateurs en faisant preuve de pédagogie pour les autonomiser. Aide à la gestion du changement. Compétences techniques et linguistiques requises Profil recherché : • Expertise confirmée en Business Intelligence, avec une maîtrise des outils d’extraction et de traitement de données, et des technologies associées. • Maitrise de l’utilisation de SQL pour sélectionner des données • Compétences solides en analyse de données, avec une capacité à traduire des besoins métiers en solutions techniques. • La connaissance d’outils de reporting serait un plus. • Capacité à travailler de manière autonome et en équipe. • Rigueur et souci de la qualité des données, avec une forte orientation résultats. Les solutions BI mise en œuvre actuellement chez le client sont basées sur les technologies suivantes : • Oracle • IBM Datastage • Power BI • SAP Business Object 4.2 • Outil de data virtualization comme Denodo • Sqlserver Compétences requises • Une expérience significative d’un minima de 4 années dans l’intégration de systèmes décisionnels • Une expertise concrète en environnement BI • De solides connaissances ainsi qu’une expérience significative dans la manipulation de données. • Des compétences fonctionnelles • Un fort sens de l’analyse et de la pro activité • Capacité rédactionnelle • Excellent relationnel • Maîtrise de l’anglais indispensable (lu, parlé, écrit) Autres compétences appréciées • Connaissance du métier de l’assurance Durée de la Prestation Régie, pour une période de 6 mois renouvelable.
Mission freelance
expert(e) Big Data
Publiée le
Big Data
3 ans
Versailles, Île-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) expert(e) Big Data. Skills : Big Data - Cloud Data - anglais Mission : -intervenir en assistance et expertises auprès du client -réaliser l'étude détaillée du besoin client en lien avec les architectes -construire avec les CloudOps les infrastructures DATA pour le projet -paramétrer et configurer les services afin de répondre aux exigences projets -documentation -gestion des demandes et incidents -upgrade N'hésitez pas à revenir vers moi pour des informations complémentaires.
Mission freelance
POT8818 - Un Data Scientiste Senior sur Clermont-ferrand
Publiée le
SQL
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Scientiste Senior sur Clermont-Ferrand. PRESTATION Datascientist expérimenté en analyse de données télématiques gros volume et cartographie numérique PRINCIPALES ACTIVITES Analyse de données -Classification et clustering, machine learning dans les domaines de la topographie et de l’usage des véhicules (cinématique et dynamique) -Evaluation et développement d'algorithmes, services et process associés Prescripteur pour les évolutions futures de l'environnement d'analyse et bases de données -BD spatiale et navigation entre bases de données géospatiales et temporelles (en collaboration) COMPETENCES Expérimenté en machine learning Snowlake, PostgreSQL Python (geopandas, holoviews, datashader) SQL Expérience souhaitée en traitement de signal Expérience souhaitée sur QGIS ou ArcGIS Expérience souhaitée de geoservices: OSM, Here Développement de Web apps pour déploiement sur le terrain Outils de visualisation / BI : -Conception d'outils d'exploration visuelle de données spatiales et temporelles -Elaboration de dashboards d'analyse Localisation : Clermont-ferrand / 5 jours par semaine
Mission freelance
Consultant Data Snowflake SQL
Publiée le
Snowflake
SQL
12 mois
Paris, France
Télétravail partiel
Analyse de la données Le consultant freelance accompagnera la mise en place, l’optimisation et l’automatisation des traitements de données sur Snowflake et Databricks, ainsi que le développement de scripts pour améliorer les processus internes. Missions principales Analyse de la donnée Analyser les besoins métiers et produire des jeux de données fiables et pertinents. Concevoir, optimiser et maintenir des requêtes SQL et objets Snowflake (tables, vues, pipelines). Développer des transformations et workflows sur Databricks Créer et maintenir des scripts d’automatisation (Python, PowerShell, .NET selon besoins). Documenter les traitements et assurer un niveau de qualité élevé des données. Collaborer avec les équipes internes pour faciliter l’utilisation et la compréhension des datasets.
Mission freelance
EXPERT IAM / CLOUD / DATA
Publiée le
Cloud
Cryptographie
IAM
6 mois
490-700 €
Paris, France
🎯 Missions principales : - Capacité à travailler sur les orientations et directions stratégiques du programme cyber, à comprendre les enjeux et la structure du programme, et à proposer des améliorations continues - Rédaction et/ou révision de thématiques opérationnelles du Group Cyber Framework (exigences cyber sur 25 thématiques applicables à toutes les entités du groupe) - Identification des risques cyber, les objectifs et les preuves associées aux exigences cyber sécurité (les preuves à collecter parles entités afin de vérifier qu'elles ont bien implémentées ces exigences - Expertise sur les thématiques typées "Cryptography" "network security" "Data Security" , "AM" and « secure configuration » - Animation des workshops avec les experts de ces sujets cyber, les équipes de productions et les entités afin d'identifier la faisabilité des exigences et les aspects opérationnels associés - Animation des espaces de partage des livrables et des forums mis en place à cet effet.
Offre d'emploi
Data Engineer - SPARK/SCALA
Publiée le
Apache Airflow
Apache Spark
PySpark
12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretiens et tests techniques developpeurs Java Angular junior
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
1272 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois