Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 458 résultats.
CDI
Freelance

Offre d'emploi
Ingénieur DevOps (H/F)

Publiée le
Ansible
AWS Cloud
Azure

12 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Les bonnes pratiques DevOps n’ont plus de secret pour toi et tu souhaites mettre à profit ton expertise dans des projets innovants ? C’est sans doute toi qu’on attend pour compléter notre équipe en intégrant ce poste d’ Ingénieur DevOps ! 🚀 Ton challenge si tu l’acceptes : Accompagner les équipes de développement et d'infrastructure dans l'implémentation des pratiques DevOps Concevoir et maintenir les pipelines CI/CD Automatiser le déploiement et certaines procédures afin d'optimiser la gestion des infrastructures Assurer le bon fonctionnement, la disponibilité ainsi que la sécurité des systèmes et des applications Contribuer aux décisions d'architecture et faire preuve d'une expertise auprès de nos clients Gérer les incidents et problèmes liés aux environnements de production
CDI
Freelance
CDD

Offre d'emploi
Consultant BI expérimenté

Publiée le
C#
Microsoft Power BI
Microsoft SSIS

1 an
Paris, France
À propos du poste Nous recherchons un Consultant BI expérimenté pour moderniser et améliorer la plateforme interne, Le rôle consiste à migrer les systèmes existants vers Azure, enrichir les fonctionnalités et assurer le support opérationnel dans un environnement de gestion d’actifs. Responsabilités principales Migrer les cubes SSAS multidimensionnels vers des modèles Tabulaires et optimiser les performances. Adapter les flux SSIS et refondre les rapports SSRS. Déployer la solution sur Azure (Analysis Services/Power BI Premium, SQL Database, Data Factory). Développer de nouveaux KPI et intégrer des sources de données supplémentaires. Mettre en place un système d’alertes automatisées (seuils, anomalies). Assurer le support de niveau 2/3 et résoudre les incidents. Compétences requises Techniques : Expertise SSAS (Multidimensionnel & Tabulaire), SSIS, SSRS, SQL Server (T-SQL), .NET (C#). Services Azure : Analysis Services/Power BI Premium, Data Factory, SQL Database, monitoring/alerting. Métier : Bonne compréhension de la gestion d’actifs et des processus d’investissement. Connaissance des métriques AUM, des flux et des indicateurs financiers. Soft Skills : Autonomie, proactivité et orientation solutions. Excellentes capacités de communication et d’analyse.
CDI
Freelance

Offre d'emploi
Administrateur Systèmes N2/N3 – Data Lake / Linux / Cloudera

Publiée le
Ansible
Apache Airflow
Linux

24 mois
Île-de-France, France
Télétravail partiel
Mission: Lieu : IDF (sud de Paris) Démarrage souhaité : Janvier 2026 Télétravail : 2 jours par semaine Astreintes : Oui Nous recherchons trois Administrateurs Systèmes N2/N3 pour intervenir sur une plateforme Data Lake de grande envergure. Vous rejoindrez l’équipe en charge de l’administration, du maintien en conditions opérationnelles et de l’automatisation des environnements Linux/Cloudera. Il s’agit d’une mission longue et techniquement exigeante, dans un environnement moderne mêlant Big Data, automatisation, scripting et ordonnancement. Responsabilités principales Administrer et exploiter la plateforme Data Lake (environnements Cloudera & Linux) Assurer le MCO/MCS des clusters (fiabilité, disponibilité, supervision) Implémenter et maintenir des pipelines d’automatisation via AWX / Ansible Rédiger et maintenir des scripts d’administration (Python, Shell, Ansible) Participer aux phases d’industrialisation, normalisation et sécurisation des environnements Gérer les accès et l’identité via IDM / FreeIPA Exploiter et optimiser les workflows sous Airflow Participer à la gestion des incidents (N2/N3), astreintes et interventions HNO Travailler en coordination avec les équipes Data, Sécurité et Exploitation
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance

Mission freelance
Data Engineer AWS / Snowflake (Urgent)

Publiée le
Amazon S3
AWS Cloud
Gitlab

6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Freelance

Mission freelance
Ingénieur Système & Data – Monitoring / Maintenance / Big Data

Publiée le
Angular
Apache Spark
Hadoop

3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission : Au sein de la Direction des Systèmes d’Information d’un grand groupe du secteur financier, vous intégrerez une équipe en charge du pilotage des risques structurels et du reporting financier . L’objectif de la mission est de maintenir et faire évoluer une plateforme technique basée sur la technologie ClickHouse® , en garantissant sa stabilité, ses performances et sa sécurité . Missions principales : La prestation consiste à contribuer aux activités suivantes : Surveillance et monitoring de l’infrastructure ; diagnostic des incidents et anomalies Maintien en conditions opérationnelles de la plateforme (composants, performances, dette technique, montées de version) Rédaction et exécution de scripts de maintenance de l’infrastructure (équilibrage des disques, tuning système, automatisation) Application des exigences de sécurité et des procédures internes (remédiation des vulnérabilités, patching, CI/CD) Définition, estimation et planification des activités techniques Rédaction de spécifications et documentation techniques Support et accompagnement des équipes internes dans la gestion quotidienne de la plateforme
Freelance

Mission freelance
Data Engineering Manager (Bordeaux)

Publiée le
AWS Cloud

6 mois
400-750 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Libourne près de Bordeaux, je suis à la recherche d'un Expert Data Engineering Manager. Contexte et mission : Le client accélère sa transformation en matière de données et d'IA et structure son organisation autour d'un modèle opérationnel à deux équipes : • Équipe Produits de données (orientée vers les activités, axée sur la valeur). • Équipe Ingénierie des données (fourniture, exploitation et mise en œuvre de la plateforme). Il recherche donc un responsable Ingénierie des données expérimenté pour diriger l'équipe Ingénierie des données pendant une phase de transition critique. La mission couvre trois objectifs parallèles : • Mettre en place la future plateforme de données cible, dont la pile est actuellement en cours de validation et devrait être basée sur Databricks ou Snowflake sur Microsoft Azure. • Migrer progressivement les piles de données existantes vers la nouvelle plateforme. • Réaliser les projets commerciaux et clients en cours, à la fois sur les piles existantes et sur la nouvelle plateforme, sans perturber les opérations Ce poste exige un leadership fort et une grande discipline d'exécution. Responsabilités principales : • Diriger et gérer l'équipe d'ingénierie des données (équipe interne et partenaires externes). • Être responsable de la livraison, de la capacité et des performances opérationnelles sur les plateformes existantes et cibles. • Garantir la fiabilité, les performances, l'évolutivité et l'optimisation des coûts • Structurer et piloter le démarrage de la plateforme de données cible. • Planifier et exécuter la migration progressive de la pile existante vers la pile cible. • Assurer la livraison des projets commerciaux et clients en cours sur les deux piles. • Définir et appliquer les normes et les méthodes de travail en matière d'ingénierie des données. • Servir d'interface principale avec les parties prenantes des produits de données, de l'architecture et de l'informatique. • Soutenir et habiliter les équipes locales client Data sur les piles technologiques de données.
Freelance

Mission freelance
DATA MANAGER / REF GOUVERNANCE DE DE DONNEES

Publiée le
Collibra
Google Cloud Platform (GCP)
Gouvernance

1 an
400-550 €
Nord, France
Nous recherchons un Référent Gouvernance de Données / Data Steward pour une mission freelance au sein d’une équipe transverse Data. Ce rôle stratégique consiste à accompagner les équipes produits digitaux dans l’exposition et la qualité de leurs données, en garantissant le respect des règles de gouvernance définies au niveau groupe. Le consultant sera le point de référence sur la gouvernance des données , travaillera en autonomie et interagira régulièrement avec les autres référents data des différentes plateformes pour harmoniser les pratiques et contribuer à l’amélioration continue. Missions principales : Accompagner les équipes produits dans l’exposition de leurs données selon les standards de gouvernance. Définir et mettre en œuvre les règles de qualité des données en collaboration avec les équipes concernées. Garantir la certification des données publiées. Participer aux comités de gouvernance avec les autres référents data. Être force de proposition sur l’évolution des pratiques et des modèles de données. Contribuer à la modélisation des données et à la valorisation des données de référence. Livrables attendus : Données exposées selon les règles de gouvernance définies. Règles de qualité déployées et respectées. Évaluation du respect des standards de gouvernance.
Freelance
CDI

Offre d'emploi
Data Engineer (14)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Informations Générales Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 Data Engineers) en charge de la mise à disposition des données pour le pilotage des offres numériques via le produit Data4All. Stack : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; qualité des données et support aux utilisateurs. Concevoir & maintenir des modèles de données et pipelines robustes et scalables ; organiser/structurer le stockage. Mettre en place et maintenir des infrastructures scalables, assurer sécurité/stabilité des environnements, workflows CI/CD. Contribuer à la gouvernance (qualité, fiabilité, intégrité), documentation et veille ; participation aux instances Data Ingénieurs.
Freelance

Mission freelance
POT8785 - Un Product Owner Data Sénior sur Paris.

Publiée le
Méthode Agile

6 mois
400-460 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Product Owner Data Sénior sur Paris. Objectif de la mission Assurer le Product Ownership des socles Data pour le programme Data Performance, afin de : maximiser la valeur business, garantir l’adoption des produits par les métiers, sécuriser la performance des traitements et le passage en RUN. Le consultant sera également amené à collaborer avec le Product Manager transverse et à accompagner la transformation Data dans l’organisation. Missions principales 1. Product Ownership des socles Piloter le backlog des socles et prioriser les évolutions en fonction des besoins métiers. Rédiger user stories et spécifications fonctionnelles pour les fonctionnalités critiques. Assurer la cohérence fonctionnelle avec les objectifs métiers : CA, performance commerciale, nouveaux services marketing. Préparer le passage en RUN et accompagner l’adoption des produits par les métiers. Suivre les traitements existants, le legacy, les référentiels et les adhérences. 2. Collaboration avec le Product Manager transverse Participer à la structuration et pilotage industriel des socles Data. Contribuer à la roadmap Data à 3 ans, et à la mise en place du PI Planning. Déployer des KPIs orientés valeur business pour mesurer l’impact des socles et des cas d’usage. Préparer les supports de COPIL / CEB / COPROJ, incluant avancement, risques et indicateurs de valeur. 3. Accompagnement de la transformation Data Décliner les orientations de la transformation (audit plateforme Data) dans les pratiques des socles et zones business. Suivre les pilotes New SAPO et Distribution, sécuriser leur mise en œuvre et généraliser les bonnes pratiques. Contribuer à la conduite du changement : acculturation, formation, communication et montée en maturité des équipes métiers et SI. Livrables clés: Backlog et priorisation des évolutions des socles User stories / spécifications fonctionnelles Roadmap Data à 3 ans KPI de valeur business et supports de pilotage pour COPIL / CEB Documentation sur la transformation Data et accompagnement au changement Profil recherché: Expérience Product Owner Data dans des grands groupes ou environnements complexes Connaissance en transformation Data et Data Office Capacité à travailler avec les métiers et la DSI pour traduire les besoins en solutions Data opérationnelles Maîtrise des concepts modernes de data architecture, notamment Data Mesh et gestion de référentiels Expérience Agile / PI Planning / gestion de roadmap Data Orientation forte valeur business, capacité à mesurer et suivre l’impact des socles et produits Data Idéalement : connaissance environnement transport (données clients, données commerciales / financières)
Freelance
CDI

Offre d'emploi
DATA ANALYST GCP (420€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
40k-80k €
290-420 €
Île-de-France, France
Télétravail partiel
● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery (Oracle est un plus) ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Exploration et extraction des données : rédaction et optimisation de requêtes SQL complexes, automatisation des traitements analytiques pour des performances accrues. ● Création et optimisation de dashboards interactifs sous Looker Studio, avec une capacité à identifier et suivre des KPIs critiques pour le pilotage métier. ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement. ● Esprit d’analyse et appétence pour le fonctionnel, capacité à appréhender rapidement des logiques métier complexes
CDI

Offre d'emploi
Architecte data engineering - Industrie H/F

Publiée le

40k-50k €
France
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : * Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA) ; * Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) ; * Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités) ; * Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data ; * Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques ; * Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
CDI
Freelance

Offre d'emploi
Ingénieur DevOps / Spécialiste Azure Terraform (H/F)

Publiée le
Azure
Docker
Git

12 mois
45k-50k €
450-500 €
Clisson, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 💼Poste : Ingénieur DevOps / Spécialiste Azure Terraform (H/F) 📍Lieu : Clisson (44) 🏠 Télétravail : 3 jours par semaine 📝Contrat : CDI ou Freelance Tu rejoins un acteur majeur du transport sanitaire et spécialisé , engagé pour la qualité de service et l’innovation. L’entreprise place l’humain au cœur de son métier et investit dans des solutions digitales pour moderniser ses activités et améliorer la performance opérationnelle. Dans le cadre de l’industrialisation et du développement de son activité, l’entreprise lance un chantier stratégique : réindustrialiser son environnement cloud et mettre en place une IAAS déployable via Terraform sur Azure . Objectif : créer un SI complet, automatisé et évolutif, des groupes de ressources aux applications, en passant par les datalakes BI, pour offrir robustesse et agilité aux équipes internes. Tu auras pour missions de : Concevoir et déployer une infrastructure IAAS sur Azure via Terraform. Structurer et automatiser la création des environnements (groupes de ressources, réseaux, applications, datalakes). Mettre en place les bonnes pratiques DevOps pour fiabiliser et industrialiser les déploiements. Collaborer avec les équipes internes (DSI, métiers) pour intégrer les besoins dans les solutions techniques. Garantir la sécurité, la performance et la scalabilité des environnements cloud. Documenter les procédures et accompagner la montée en compétence des équipes. Stack technique : Azure, Terraform, PowerShell, CI/CD (Azure DevOps), Git, Docker, Kubernetes, Linux, Windows Server, Networking (VNet, NSG), Monitoring (Azure Monitor), Sécurité Cloud (IAM, RBAC).
Freelance

Mission freelance
Chef de projet BI - confirmé - freelance - Rouen H/F

Publiée le
DAX

1 mois
76000, Rouen, Normandie
Télétravail partiel
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Votre mission (si vous l’acceptez) : - Cadrer les besoins métiers et formaliser les règles de gestion associées aux KPI de pilotage. - Assurer la cohérence et la qualité des indicateurs produits. - Piloter les projets BI : coordination, suivi, planification, communication. - Travailler en lien étroit avec les équipes techniques et les métiers pour garantir la bonne compréhension et la bonne mise en œuvre des besoins. L’environnement technique : Maîtrise de la stack Microsoft BI, en particulier : - SQL Server (modélisation, optimisation, ETL ) - Power BI (Datasets, modèles tabulaires, DAX, gouvernance) - Une connaissance de Microsoft Fabric serait un réel plus. Vous, notre perle rare : - Expérience confirmée en gestion de projets BI. - Capacité à dialoguer avec les métiers, à structurer les besoins et à challenger les demandes. - Autonomie, rigueur, sens du pilotage et de la communication. Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : TJ en fonction de votre expertise et expérience sur un poste similaire. Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
Consultant en systèmes d'information ( H/F )

Publiée le
Azure DevOps
BigQuery
DAX

36 mois
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Missions principales Concevoir, développer et faire évoluer des solutions de Business Intelligence basées sur Power BI dans un environnement Data à grande échelle Définir et faire évoluer l’architecture Data & BI dans des environnements Cloud (Azure) Développer des modèles de données performants et des rapports Power BI complexes en s’appuyant sur le langage DAX Mettre en œuvre les opérations de préparation, transformation et analyse de données issues de plateformes cloud (notamment BigQuery – GCP) Intégrer des contenus Power BI dans des portails sécurisés et des applications métiers Garantir la qualité des livrables via la documentation technique, les standards de développement et les bonnes pratiques BI Intégrer les développements dans des chaînes d’intégration continue (Azure DevOps / Git) Déployer et maintenir les solutions BI sur différents environnements (développement, intégration, production) Participer au maintien en conditions opérationnelles des plateformes Data (BUILD & RUN) Contribuer à l’amélioration continue des outils, des processus et des pratiques Data & DevOps Accompagner et former les équipes internes et internationales sur les bonnes pratiques Power BI et Data
Freelance
CDI

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Publiée le
Apache Spark
Hadoop
Python

3 ans
38k-43k €
300-400 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
4458 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous