The job you are looking for has been deleted or has expired.
Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.
Your search returns 1,361 results.
Job Vacancy
Analyste d'Exploitation (F/H)
Published on
30k-40k €
Orléans, Centre-Val de Loire
Analyste d'Exploitation (F/H) - Orléans Nous recherchons un Analyste d'Exploitation (F/H) pour l'un de nos clients basé à Orléans . Son rôle sera de participer au maintien en condition opérationnelle de la production, à la mise en place des évolutions, à la gestion des incidents et des demandes utilisateurs. 🎯 Vos missions Livraison des applications et des correctifs d'incidents Création, Lecture et adaptation de scripts d'exploitation Shell, PowerShell, CL400 Evolution des chaînes d' exploitation et des applications Gestion des incidents niveau 1 & 2 Rédaction des documentations d'exploitation Installation des applicatifs windows , Linux/unix,iseries Administration technique et fonctionnelle d'applicatifs Organisation de la mission : Intervenir au sein d'une équipe de 12 personnes Consignes au pilotage
Job Vacancy
Data Engineer (21)
Published on
Google Cloud Platform (GCP)
Python
1 year
40k-45k €
400-660 €
Ile-de-France, France
Hybrid
Descriptif du poste La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Au sein de l'équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d'un product owner, d'un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Prestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances de data engineering Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Job Vacancy
Chef de projet Data H/F
Published on
Azure Synapse
Control
Microsoft Power BI
1 year
45k-58k €
400-450 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
Suite à une restructuration interne chez notre client dans le secteur de l'immobilier, nous recherchons un(e) Chef(fe) de projet Data à Bordeaux Missions Recenser et analyser les besoins métiers. Lire et comprendre les cahiers d’analyse. Participer aux COPROJ / COPIL. Suivre la RDD, les recettes, le run et les tickets JIRA. Rédiger les process et modes opératoires. Suivi des plannings et risques projets Environnement technique Microsoft Azure Azure Synapse Analytics Microsoft SQL Server Microsoft Power BI Démarrage : ASAP – Recherche quelqu’un pour démarrage de mission en cette fin d’année
Contractor job
Business Analyst (Bordeaux)
Published on
Agile Method
Azure DevOps
JIRA
3 months
100-400 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
Dans le cadre d'un programme de refonte du Back Office, une importante reprise de données de l'ancien vers le nouveau système de gestion est a réalisé et pour venir renforcer les équipes vos missions principales en tant que Business Analyst seront de : Animer de manière dynamique les ateliers (préparer, animer, reporter) Être porteur du champ analytique : capacité à adresser les thématiques Santé, d’échanger avec les développeurs sur la manière d’obtenir les résultats, de mener la réflexion sur les règles de transformation en atelier Être force de proposition Rédiger rigoureusement des spécifications détaillés Piloter les outils de ticketing
Job Vacancy
Data Engineer (15)
Published on
Google Cloud Platform (GCP)
Python
1 year
40k-45k €
400-470 €
Ile-de-France, France
Hybrid
Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 DE) qui alimente le pilotage des offres numériques via le produit Data4All. Stack technologique : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, autres services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; accompagner les utilisateurs ; mettre en place le contrôle qualité des données. Concevoir et maintenir des modèles et pipelines robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables, sécurité et stabilité des environnements, workflows CI/CD. Gouvernance et documentation (qualité, fiabilité, intégrité), partage de bonnes pratiques et veille ; participation aux instances Data Ingénieurs.
Contractor job
[MDO] Data & AI - Data Engineer (5 ans minimum)
Published on
Azure Data Factory
Azure Logic Apps
Databricks
1 year
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Hybrid
Data Engineer - Collecter, analyser et exploiter les données disponibles et pertinentes pour améliorer le pilotage des activités et identifier les leviers de création de valeur pour l'entreprise. - Aide aux équipes métier à développer, déployer et opérer les solutions pour permettre d’atteindre leurs objectifs. Principaux résultats attendus : • Les données pertinentes pour répondre aux besoins des utilisateurs sont identifiées, capturées et choisies • Le temps et les ressources/outils nécessaires à la gestion et à l'analyse des données sont optimisées. • Les données sont analysées et partagées dans un format accessible à tous grâce à des visualisations de données • Les activités métier disposent des lignes guides et recommandations pour créer de la valeur • Les offres, services ou processus de l'entreprise sont optimisés grâce aux connaissances acquises par l'analyse et l'évaluation des données • Les prescriptions du groupe en matière d'éthique et de gouvernance des données sont appliquées et respectées. • Présentation des fonctionnalités du ou des « produits » pour les promouvoir et pour faciliter la maintenance dans la durée • Résultats de tests conforme à la stratégie de test • Catalogue des produits data (dataset) à jour • Kit de formation et outils pour les utilisateurs Compétences fondamentales en Data Engineering : • Modélisation de données : conception de modèles relationnels, dimensionnels et Data Vault • ETL / ELT : conception et optimisation de pipelines robustes, gestion des dépendances • Qualité & gouvernance des données : data lineage, data quality checks, catalogage, gestion des métadonnées • Architecture data : compréhension des patterns modernes (Data Lakehouse, Data Mesh, etc.)
Job Vacancy
Data Engineer - Lyon
Published on
Databricks
DBT
Snowflake
50k-60k €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Contractor job
Analyste d’exploitation applicatif – Niveau 2
Published on
Gitlab
6 months
400 €
Marignane, Provence-Alpes-Côte d'Azur
Hybrid
Contexte et mission Au sein des équipes d’exploitation applicative, le consultant interviendra sur la supervision, le support et la maintenance en conditions opérationnelles (MCO) des applications du périmètre. Il assurera le support de niveau 2, la gestion des incidents, des changements et des problèmes, en étroite collaboration avec les responsables d’applications (RIA) et les équipes de niveau 3. Activités principales Assurer le support des applications N2 : MCO, analyse des logs, diagnostic réseau, analyse Docker, dépannage et suivi OpenShift/Kubernetes. Mettre en œuvre les changements conformément aux processus établis . Gérer le backlog (incidents, changements, problèmes). Assurer la mise à jour et la production des documents d’exploitation . Préparer et animer les réunions quotidiennes avec les RIA . Assurer la communication avec les RIA et les équipes L3 (rapports, comptes rendus, analyses de suivi). Être le point de contact principal pour les RIA sur le périmètre défini (projets, incidents, problèmes). Participer à la démarche d’amélioration continue : automatisation, industrialisation des tâches récurrentes, optimisation des processus. Compétences techniques requises Maîtrise de la ligne de commande Unix/Linux (RedHat). Configuration de serveurs Windows et de machines virtuelles . Gestion d’environnements Docker . Serveurs d’applications : Tomcat, Nginx, etc. Bases de données : MySQL, PostgreSQL, SQL Server, Oracle. Scripting : bash, PowerShell. Intégration continue : GitLab CI, Jenkins. Outils de supervision et de surveillance . Bonne connaissance des méthodes Agile et des processus ITIL . Connaissance des outils de gestion des changements et tickets : ServiceNow, JIRA/SEM, SSP, Tuffin, etc. Compétences comportementales Bonnes capacités de communication et de rédaction . Esprit d’analyse et de synthèse. Rigueur et sens du service. Capacité à travailler en équipe dans un environnement international.
Contractor job
Développeur / Data Engineer Observabilité h/f
Published on
Azure
DevOps
Grafana
6 months
400-600 €
Levallois-Perret, Ile-de-France
Hybrid
Notre client recherche un Développeur Senior disposant d’une double expertise en développement backend et en ingénierie des données, pour rejoindre son équipe dédiée à l’observabilité. Concevoir, développer et maintenir des services backend (Python, PySpark) et des APIs orientées observabilité Construire et orchestrer des pipelines de données robustes (Airflow, Spark, Python) Garantir la qualité, la sécurité et la gouvernance des flux (tests, lineage, monitoring) Gérer les données via PostgreSQL, ADLS, Blob Storage, ElasticSearch Développer des dashboards et visualisations avancées (Grafana, ELK) Collaborer étroitement avec les équipes produit et développement (Agile/Scrum)
Contractor job
Data Engineer DBT / Snowflake
Published on
DBT
3 months
400-500 €
Paris, France
Hybrid
Acteur majeur du luxe Le poste Développer et maintenir les modèles DBT dans l’environnement Snowflake Réaliser les tests unitaires pour garantir la fiabilité et la performance des pipelines Documenter le code et les flux de données selon les standards internes Collaborer étroitement avec les équipes Data Engineering et BI Participer à l’amélioration continue des pratiques de développement et d’intégration Stack technique DBT (Data Build Tool) – confirmé (4 ans min) Snowflake – confirmé Git / GitLab CI/CD Python (pour scripting ou ingestion) DataOps / FinOps / QA (environnement du client) Modélisation : Kimball, Data Vault (bonus)
Job Vacancy
DATA SCIENTIST SENIOR – BRUXELLES
Published on
Data science
Python
3 years
Brussels, Brussels-Capital, Belgium
Pour une mission longue sur Bruxelles (3 jours site ) , nous recherchons un data scientist expérimenté (minimum 3 ans d’expérience) ayant OBLIGATOIREMENT une expérience dans le secteur bancaire. · Poste en CDI (idéalement pour une relocalisation en Belgique), ouvert aux Freelances, · Anglais obligatoire · Salaire ou tarif à discuter En tant que Data Scientist, vous devez maîtriser différents aspects du Machine Learning. Ce poste offre l’opportunité d’appliquer et de renforcer tes compétences dans plusieurs domaines : • Relever divers défis métiers en créant des applications d’IA (assistant virtuel, etc.) destinées à améliorer l’expérience client, fournir de meilleurs outils aux collaborateurs, et automatiser ou optimiser les processus internes. • Utiliser un large éventail de méthodologies analytiques (IA générative et IA prédictive), incluant les techniques et approches de GenAI : Prompt Engineering, RAG, fine-tuning, speech-to-text, applications agentiques, génération et interprétation d’images, NLP, ainsi que les méthodes statistiques et de machine learning classiques. Bien que vous ne soyez pas expert dans tous ces domaines, vous devez posséder une solide expertise dans les technologies clés et la capacité d’apprendre rapidement de nouvelles approches selon les besoins. • Disposer d’une grande expérience en programmation Python et contribuer au déploiement d’applications d’IA en production en utilisant une pile technologique complète. • Présenter directement les résultats de tes travaux au top management. • Accéder à l’un des volumes de données les plus riches et variés du marché et y appliquer tes compétences. • Évoluer dans un environnement qui valorise l’innovation, les processus agiles et efficaces, la communication directe, et un esprit d’équipe fort. • Travailler au sein d’une équipe agile et collaborative, composée de collègues prêts à partager leurs expériences et à coopérer au quotidien.
Job Vacancy
Data Engineer – Intégration & Cloud (GCP / BigQuery / Talend)
Published on
API REST
BigQuery
Microsoft Power BI
40k-45k €
Paris, France
Nous recherchons un Data Engineer pour intervenir sur un projet stratégique d’intégration et de valorisation de données au sein d’un environnement Cloud moderne. Le consultant interviendra sur la création, l’optimisation et la maintenance de pipelines data entre plusieurs plateformes internes, avec un fort niveau d’autonomie technique. Concevoir, développer et maintenir des flux de données entre différentes sources (API REST, Cloud, bases SQL). Mettre en place des traitements d’ingestion, transformation, normalisation et contrôle qualité des données. Développer et optimiser des pipelines dans GCP / BigQuery . Construire et maintenir des jobs Talend pour l’intégration et l’automatisation des traitements. Automatiser et industrialiser les workflows via des scripts Shell / Bash . Contribuer à la création et à l’optimisation de dashboards Power BI (KPI, dataviz). Garantir la qualité, la performance et la conformité des données. Documenter les flux, rédiger les spécifications et collaborer avec les équipes métiers et techniques. Versionner les développements via GitLab et respecter les bonnes pratiques CI/CD.
Job Vacancy
Energy & Utilities Business Analyst
Published on
Widecombe-in-the-Moor, England, United Kingdom
The UK energy & utilities industry is going through a period of unprecedented change as the country seeks to meet its net zero ambitions and grapples with deep rooted challenges in our water sector. CGI’s Energy & Utilities business is looking to grow our team with additional Business Analysts. Do you want to make an impact on the sector? Are you looking to work with high-profile clients within the UK electricity, gas and water industries? Would you like to be part of a secure, growing company with the scale and strength to take your career to the next level? As a Business Analyst you will be joining CGI’s Energy & Utilities team that shapes and delivers solutions across the UK industry – working with a wide range of energy and water companies and related market participants. CGI was selected both as the “Best Very Big Company to Work for in the Technology Industry” by the Sunday Times in 2025 and one of the ‘World’s Best Employers’ by Forbes magazine in 2024. We offer a competitive salary, excellent pension, private healthcare, plus a share scheme (3.5% + 3.5% matching) which makes you a partner not just an employee. We are committed to inclusivity, building a genuinely diverse community of talent and inspiring more everyone to pursue careers in our sector. Join us and you’ll be part of an open, friendly community of experts. We’ll train and support you in taking your career wherever you want it to go.
Contractor job
Data engineer (H/F)
Published on
Dataiku
ELK
1 year
400-460 €
Châtillon, Ile-de-France
Hybrid
Infrastructures de données : - Cartographie et documente les sources de données. - Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. - Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. - Structure les bases de données (sémantique, format, etc.). - Contribue à la gestion des référentiels de données. Intégration des données : - Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. - Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. - Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. - Nettoie la donnée (élimination des doublons) et la valide pour une utilisation aval. Animation des communautés : - Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : - Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. - Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables - Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. - Un data lake adapté aux besoins actuels et futurs de l'entreprise. - Une cartographie des données. - Les éléments permettant de garantir la qualité de la donnée.
Job Vacancy
Analyste Applicatifs Banque H/F
Published on
55k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Analyste Applicatifs Banque H/F dans le cadre d'un CDI. Rattaché au Responsable Applications Métiers, l'Analyste Applicatifs Banque H/F assure le support applicatif, la gestion des données bancaires et réglementaires, ainsi que l'accompagnement des projets liés aux référentiels et aux outils de production documentaire. Responsabilités : Support et assistance utilisateurs (N2/N3) : Diagnostic, traitement et suivi des incidents liés aux applications métiers Gestion des données référentiels : Gestion des données bancaires et réglementaires : fiabilisation, contrôle qualité et suivi des données critiques (tiers, comptes, opérations), Central File (référentiel tiers & comptes) : gestion, paramétrage et évolution, Production documentaire : Relevés/avis bancaires : contribution à la mise en place, au suivi et à l'optimisation des processus de production documentaire et de gestion des documents, Projets IT et évolutions applicatives : Participation active aux phases de conception, tests, recette et mise en production dans un mode projet structuré (Agile / Cycle en V), Amélioration continue : Mise en place de procédures, proposition d'axes d'amélioration, optimisation des processus existants, Coordination et relations externes : Interface avec les équipes métiers, les éditeurs (Temenos T24, FCM, VBank, etc.), et les prestataires externes.
Job Vacancy
Architecte Technique Data Expert Technique - Architecture Data & Cloud (H/F)
Published on
Gitlab
18 months
40k-45k €
110-600 €
Lyon, Auvergne-Rhône-Alpes
Hybrid
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Cloud, Infrastructure & Cloud, Devops, Gouvernance des données, IAM Compétences Technologies et Outils AWS CI/CD Spark Terraform Python Docker Kinesis Amazon Kubernetes Gitlab Description et livrables de la prestation Le poste d'Architecte Technique Data Expert Technique, également de niveau Expérimenté ou Sénior, a pour mission d'assurer la validité technique et l'alignement des architectures Data avec les standards définis dans le cadre du Programme Vision 2035. En tant que référent technique, vous interviendrez en amont au sein des équipes CAPVISION (méthodologies Capvision, Découverte, Zoom) pour définir les architectures cibles et garantir leur cohérence au sein de l'écosystème SI existant. Vos responsabilités englobent la définition des architectures Cloud (performance, résilience), la mise en œuvre de la gouvernance des données (Dataviz, Datamesh), et la sécurisation des données. Compétences et Technologies (Focus Technique) : Ce rôle requiert une expertise en architecture Data et Cloud (Niveau 4). La maîtrise des outils de gouvernance de la donnée tels que Dataviz et Datamesh est primordiale (Niveau 4). Une expertise est demandée sur la gestion de la sécurité du SI, notamment la gestion des accès (IAM) et les mécanismes de protection des données (Niveau 4). De solides connaissances en intégration et déploiement continus (CI/CD) sont requises (Niveau 4). Techniquement, vous utiliserez Python et Spark. Les services Cloud spécifiques comprennent AWS IAM, Amazon Kinesis, AWS Lake Formation, AWS S3, ainsi que les outils d'industrialisation AWS, Gitlab CI, Docker, Kubernetes et Terraform. Expertise souhaitée Architecte Technique Data Expert Technique
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
1361 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k