L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 270 résultats.
Offre d'emploi
Data Engineer Big Data / BI
adbi
Publiée le
Apache Hive
Apache Spark
Cloudera
12 mois
38k-46k €
Paris, France
Data Engineer Big Data / BI – Scala, Spark, SQL, Hive, Cloudera (H/F) 💼 Contrat : CDI 🏢 Entreprise : ADBI – Expert en Data Management et transformation digitaleContexte du poste Dans le cadre de l’évolution de ses plateformes Big Data et décisionnelles, ADBI recherche un(e) Data Engineer pour intervenir sur des projets d’intégration, de transformation et d’industrialisation de données. Vous participerez à la migration et à l’optimisation d’environnements Big Data (Cloudera, Spark, Hive, Scala) et contribuerez à la mise en place de solutions BI performantes et scalables.
Offre d'emploi
Ingénieur VV système - Ferroviaire F/H
VIVERIS
Publiée le
40k-50k €
1000, Bruxelles, Bruxelles-Capitale, Belgique
Contexte de la mission: Dans le cadre de nos activités de développement des systèmes ferroviaires de demain (CBTC : Communication Based Train Control), nous recherchons un ingénieur Vérification et Validation Système . Vos responsabilités: Vos principales missions sont : - Analyse des spécifications systèmes et sous-systèmes ( ATC, ATS, PSD, RS, MSS) - Mise en place de la stratégie de test et rédaction des cas de tests - Conduite et réalisation des essais sur plateforme virtuelle avec simulateurs et FIVP - Analyse des résultats et rédaction des rapports d'anomalies - Gestion et suivi des corrections
Offre d'emploi
Développeur Full Stack H/F
ASTERIA
Publiée le
Angular
Data Lake
Data Warehouse
6 mois
Monaco
Nous recherchons, pour l'un de nos Clients basés sur Monaco, un Développeur Full Stack H/F. VOTRE MISSION : Notre Client recherche un Développeur Full Stack H/F capable d’intervenir sur l’ensemble de la chaîne applicative, de l’interface utilisateur jusqu’aux services backend, dans un environnement cloud natif et containerisé permettant de valoriser des volumes de données complexes. Il devra concevoir et développer des applications intégrant des interfaces utilisateurs modernes et réactives qui s'appuieront sur des API performantes et scalables pour des cas d'usage Data/IA. Il travaillera en étroite collaboration avec les équipes data/IA pour proposer des solutions innovantes et performantes. Il participera également à l'optimisation des flux de travail de données (Data Pipelines Airflow) en collaboration avec l'équipe Data Engineering. Missions principales : Participer à l’analyse des besoins avec le chef de projet et les parties prenantes (UX/UI, métiers) Concevoir, développer et déployer des applications et chaînes de traitements autour de la Data et l'IA Rédiger et maintenir la documentation technique et fonctionnelle Réaliser les tests unitaires, d’intégration et fonctionnels Mettre en place et maintenir des pipelines CI/CD Collaborer étroitement avec les équipes Data & IA et plateforme Assurer le respect des critères qualité, délais, coûts et satisfaction utilisateur Participer aux revues de code et aux bonnes pratiques de développement Contribuer à l’amélioration continue des processus et outils de développement Veiller à la sécurité des applications et à la conformité des données personnelles
Offre d'emploi
Expert Big Data / Lead Tech Big Data
ONSPARK
Publiée le
Cloudera
Hadoop
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Expert / Lead Tech Big Data pour accompagner nos clients grands comptes. Vous interviendrez en tant que référent technique au sein d'environnements Big Data on-premise matures (Cloudera CDP), avec de fortes exigences en matière de performance, de sécurité (ISO 27001, RGS) et de qualité. Responsabilités Définir les orientations techniques de la plateforme Big Data Encadrer et accompagner les équipes Data Engineering Optimiser les performances des traitements distribués (Spark, Hadoop) Assurer une veille technologique active et contribuer à la roadmap technique Garantir la sécurité, la fiabilité et l'évolutivité de la plateforme
Offre d'emploi
Chef de chantier Data Centers (CVC) / (CFO/CFA)
AGH CONSULTING
Publiée le
Gestion de projet
Telecom
6 mois
Sequedin, Hauts-de-France
Vos principales missions, au coeur de l'action : o Responsable du bon déroulement des chantiers de construction de datacenters o Gérer et coordonner les travaux électriques et génie climatique (CVC/CFO/CFA) sur les chantiers de construction de data centers o Coordonner les interventions avec les différents corps de métiers et les partenaires externes o Encadrer les équipes sur le terrain ainsi que les sous-traitants o Assurer le respect des normes de sécurité, de qualité et de délais Au sein de notre entreprise, l'esprit d'équipe est aussi important que la technique : o Vous intégrerez une équipe à taille humaine où l'entraide, le partage d'expertise et la bonne ambiance sont primordiaux. Nous réussissons collectivement. o Nous agissons pour la mixité et l'inclusion des personnes en situation de handicap, notamment en octroyant des CESU-handicap préfinancés. o Engagez-vous pour des causes qui vous tiennent à coeur grâce au mécénat de compétences financé par l'entreprise (jusqu'à 6 jours/an). o Votre carrière évolue : nous formons et privilégions la promotion interne.
Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python
IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks
8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Mission freelance
Ingénieur Réseau/Sécurité
CS Group Solutions
Publiée le
Aruba
Cisco
Fortinet
12 mois
Paris, France
Nous recherchons un Ingénieur Réseau/Sécurité Mission en mode projet avec un peu de run lié aux projet travaillés. Contexte Projet Équipe globale d’une trentaine de personnes Localisation Paris Profil Sénior avec les compétences : - SD WAN Fortinet – Projet de migration en cours – idéalement une certification Fortinet ou SDWAN Fortinet - Firewalling Fortinet VDOM / ADOM - Fortimanager / Forti analyser - ARUBA Switching / Wifi - Cisco Switching En plus, mais non indispensable : - PKI /CMS - Cisco ACI - Radware Altéon - F5 - Netskope Mission parmi d'autres : Migration SD WAN , projet de refresh site complet ou architecture Datacenter Visibilité mission : minimum 1 an
Offre d'emploi
Data Analyst intermédiaire expert GCP BigQuery PowerBI SSIS
ARDEMIS PARTNERS
Publiée le
Google Cloud Platform (GCP)
JIRA
PowerBI
3 mois
34k-41k €
100-320 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Intégré au sein de l'équipe chargée de la transformation des applications existantes pour un groupe bancaire, vous collaborerez étroitement avec les différents métiers pour migrer les rapports BI (Power BI) et les flux de données (SSIS) vers Google Cloud Platform (GCP), en utilisant des outils tels que Composer et dbt. Votre mission principale sera de garantir une transition fluide et efficace, tout en assurant la stabilité et la performance des systèmes. Votre expertise en BI, modélisation, GCP, outils d'intégration et votre capacité à maitriser les concepts métier sont cruciaux pour mener à bien cette mission. Vous jouerez un rôle clé dans l'optimisation des capacités de livraison des solutions, augmentant ainsi leur impact et leur efficacité. Vous veillerez au respect des jalons avec une ambition forte à fin 2026. Sous la supervision d'un référent de la squad, vous assurerez une coordination optimale pour la réussite de vos missions.
Offre d'emploi
Ingénieur validation système - Transport H/F
VIVERIS
Publiée le
35k-50k €
Villeurbanne, Auvergne-Rhône-Alpes
Contexte de la mission : Viveris accompagne ses clients dans la mise sur le marché d'électronique et de logiciels embarqués certifiés, robustes et pérennes. Rattaché(e) à notre bureau d'études Rhône-Alpes, vous êtes en charge de la validation d'un système embarqué sécuritaire dans le domaine ferroviaire. Responsabilités : Assurer l'intégration, la validation, la vérification et la qualification de systèmes complexes et critiques ; Analyser les spécifications système ; En collaboration avec les experts métiers, définir les stratégies et les plans de test des sous-systèmes du projet Rédiger/mettre à jour les fiches de tests (plans de tests, scenarios de tests, rapports de test) et en assurer leurs outillages pour exécution. Planifier et exécuter les campagnes de tests pour en évaluer la conception, les comportements et les performances, et ainsi, valider que la solution est conforme à ses exigences. Mettre en place des outils de tests : Définir les choix technologies et les outils de test Déployer et mettre en oeuvre les environnements de tests dont les tests automatisés et l'outillage associé en vue d'optimiser les essais Maintenir et faire évoluer l'environnement de tests avec l'intégration des nouvelles fonctionnalités Piloter les activités de validation
Offre d'emploi
Data Engineer Senior
LEVUP
Publiée le
AWS Cloud
Snowflake
12 mois
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Mission freelance
[SCH] Data Ops - 1468
ISUPPLIER
Publiée le
10 mois
300-345 €
Niort, Nouvelle-Aquitaine
Dans le cadre de ses activités Data, le client souhaite renforcer l’industrialisation et l’automatisation de l’exploitation informatique autour des flux de données et de leur orchestration. La mission consiste à mettre en place des outils et des méthodes permettant d’améliorer la gestion des pipelines Data, tout en assurant une meilleure collaboration entre les équipes de développement et d’exploitation. Le consultant interviendra notamment sur l’intégration des pratiques d’infrastructure as code dans les processus d’orchestration des données, ainsi que sur l’optimisation des chaînes CI/CD. Une attention particulière sera portée à la fiabilisation des déploiements, à la gestion des versions des configurations, ainsi qu’au monitoring des assets en lien avec les équipes d’exploitation. Le consultant participera également à la configuration des environnements, notamment via les runners GitLab, afin de garantir la continuité des déploiements. Objectifs et livrables : -Concevoir et maintenir des services d’assistance FINOPS, notamment autour de l’observabilité -Mettre en place et optimiser les pipelines CI/CD et les tests automatisés -Assurer la configuration et la gestion des runners GitLab -Garantir la gestion des versions et la reproductibilité des déploiements -Mettre en place des solutions de monitoring des assets Data -Accompagner les équipes d’exploitation sur les bonnes pratiques, outils et technologies -Rédiger et maintenir la documentation technique (configurations, processus, workflows)
Offre d'emploi
Manager Systèmes Financiers SAP et Systèmes Périphériques H/F/NB -CDI
Disneyland Paris
Publiée le
SAP
Chessy, Île-de-France
Rejoindre Disneyland Paris, c’est faire partie d’une entreprise emblématique et internationale où l’innovation technologique se met au service de l’excellence opérationnelle. Important pilier de l’organisation financière de Disneyland Paris, le département Systèmes Financiers joue un rôle clé dans la conception, la mise en place, le support et l’amélioration des systèmes supportant nos processus et flux financiers (systèmes génèrant nos données financières clés). Ce département permet d’assurer l’exactitude du reporting de la performance financière de notre société et il explore de nouvelles idées et technologies afin d’accroître la valeur générée par nos activités. Vous intégrerez notre équipe Back of House, constituée d’un senior manager à qui vous reporterez, de deux managers (dont ce poste-ci) et de chefs de projets et experts fonctionnels et techniques. Pourquoi vous souhaitez postuler : Impact : Vous jouerez un rôle clé dans la transformation, la gestion et l’optimisation de nos systèmes financiers et process associés. Visibilité : En tant que Manager Systèmes Financiers. Vous prendrez, pour Finance, la responsabilité de certains des projets les plus stratégiques et visibles de l’entreprise (management transverse d’experts fonctionnels et techniques sur ces projets) Equipe : Vous ferez partie de notre équipe Back of House, dynamique et pluridisciplinaire, à la pointe de l’innovation, composée de chefs de projets et d’experts fonctionnels et techniques. Dans ce cadre, vous aurez la responsabilité hiérarchique directe des experts techniques. Vos missions : · Project Management: · Piloter ou participer à l’étude et la livraison d’évolutions, de projets d’envergure, et d’upgrades techniques avec impact fonctionnel, en respectant les contraintes de temps/qualité/budget et les bonnes pratiques et méthodologies définies, en collaboration avec les autres services de notre département et avec les départements Disney Experience Technology de Disneyland Paris ou de The Walt Disney Company · Management d’équipes transverses technico-fonctionnelles sur la durée des projets · Etudes : fournir des études de faisabilité sur la solution technico-fonctionnelle et les estimations de charge et de coût/budget pour les évolutions et projets impactant les systèmes financiers, y compris en sollicitant et consolidant la charge des équipes Disney Experience Technology concernées. · Assurer le delivery de projets et d’initiatives d’amélioration continue, impliquant nos systèmes financiers et l’intégration des interfaces avec SAP · Management de la performance et développement de l’équipe d’experts sur SAP et autres systèmes périphériques Back Of House : · Responsabilité hiérarchique des experts techniques et du pôle support (N.B. Ces experts pourront être managés en transverse ponctuellement par le second manager en fonction de la répartition des projets sur lesquels ils interviennent) · Suivi des performances et développement des talents de l’équipe d’experts · Améliorations des outils et des process liés au support et aux livraisons en production · Appliquer et expliquer les bonnes pratiques de transport et mise en production des solutions selon les processus définis et s’assurer de la conformité et de la traçabilité de notre documentation technique projet · Support: · Effectuer le suivi et la consolidation des incidents en production, et de la maintenance des solutions en production (en même temps que des demandes d’évolution (cf. continuous improvement ci-dessous)) afin d’animer et faciliter la revue conjointe, l’assignation et la priorisation des sujets avec les leaders de BFS BOH. · Etre garant du bon fonctionnement et de la maintenance des systèmes et flux financiers associés (SAP, TMS, applications Saas, EDI partners, etc…) et des solutions en production, incluant les mises à niveau de nos systèmes et applications · Produire la documentation technique nécessaire aux contrôles fiscaux et audits informatiques SOX · Assurer la veille technologique des systèmes financiers (i.e : roadmap et releases de nos applications, étude des fonctionnalités disponibles, nouvelles applications, …) · Continuous Improvement · Faciliter la revue conjointe et l’assignation des demandes d’amélioration continue, en coordination avec les leaders de BFS BOH, et fournir les compétences techniques nécessaires · Assurer l’implémentation pour les demandes de continuous improvement dont vous aurez la charge · Afin de mener à bien ces missions, il sera indispensable : · De travailler en parfaite coordination et collaboration avec le second manager de l’équipe BFS BOH (qui a la responsabilité hiérarchique de l’équipe de chefs de projets et experts fonctionnels) afin d’assurer une allocation optimale des ressources sur les projets. · De piloter des prestataires externes (incluant la description des missions, gestion des devis, suivi des contrats, commandes et réceptions, …) et s’assurer que nos attentes soient bien satisfaites · D’effectuer le suivi budgétaire associé à l’activité de l’équipe et à la gestion des ressources · D’effectuer le bon suivi et la priorisation des demandes de développements avec Technology ainsi que la bonne utilisation des procédures et outils de gestion des demandes internes, et assurer et valider les mises en production
Offre d'emploi
Data Engineer TERADATA ET DATAVIZ
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions sous technologie Teradata, en étroite collaboration avec les autres membres de la squad et de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage, traitement et usages, mise à disposition : une expérience des environnements Unix, une forte expertise SQL et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous interviendrez à la fois sur des activités projet mais aussi sur du RUN (suite des traitements de production, analyse/résolution d’incidents, optimisations, amélioration continue). Ces interventions sont primordiales, chaque membre de la squad participe au traitement des incidents et à l’amélioration continue du périmètre applicatif.
Mission freelance
BA Référentiel Data/Asset Management
Cherry Pick
Publiée le
Finance
12 mois
570-620 €
Paris, France
Dans le cadre du développement de ses systèmes de gestion, le client doit recourir à une prestation externe pour fournir assistance au support des outils de reporting et à la conduite des projets liés à la mise à disposition des données produits, via tous types de supports (reportings, interfaces web, fichiers, emails…) OBJET DE LA PRESTATION Les principaux objectifs de la prestation sont les suivants : Description des processus métier, les challenger, et proposition d’améliorations/simplifications et implantation dans les outils correspondants. Contribution à la conception de l’architecture des systèmes d’information et propositions de solutions partagées. Rédaction des use cases en fonction des besoins clients. Rédaction des études de faisabilité, production des spécifications fonctionnelles, évaluation des travaux à prévoir et validation des développements. Formalisation et explication des besoins fonctionnels en tâches et améliorations techniques en vue du développement par la MOE. Gestion de la conduite de projet (proposer les plannings des projets, des lots éventuels et des échéances, organiser et animer les projets). Participation active aux réunions, au reporting d’activité et comités projets. Garantie du bon fonctionnement au quotidien de la plateforme et du support niveau 2
Offre d'emploi
Data Engineer (H/F)
OBJECTWARE
Publiée le
DBT
Google Cloud Platform (GCP)
Reporting
50k-60k €
Bordeaux, Nouvelle-Aquitaine
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Engineer avec une forte appétence pour le reporting et la valorisation de la donnée. L’objectif est de structurer, industrialiser et exploiter les données afin de produire des indicateurs fiables et utiles aux métiers. Missions Concevoir, développer et maintenir des pipelines de données robustes et scalables Assurer la collecte, transformation et mise à disposition des données Participer à la modélisation des données (datawarehouse / datamart) Mettre en place et optimiser les flux via des outils d’orchestration Collaborer avec les équipes métiers pour comprendre les besoins en reporting Développer et alimenter des tableaux de bord et reportings Garantir la qualité, la fiabilité et la performance des données Participer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Environnement technique Cloud : GCP (idéalement) ETL / Orchestration : Airflow, DBT Langages : Python BI / Reporting : Power BI, Tableau ou équivalent Data : SQL, modélisation data
Offre d'emploi
Senior Data Engineer Python / Kafka / Flink (On-Premise)
Deodis
Publiée le
Apache Kafka
Python
1 an
40k-45k €
400-500 €
Île-de-France, France
Nous recherchons un(e) Senior Data Engineer pour concevoir, déployer et maintenir une plateforme de données robuste et performante dans un environnement entièrement on-premise. Vous serez responsable du développement de pipelines batch et temps réel en Python, de l’orchestration via Apache Airflow et du traitement de flux avec Apache Flink, tout en assurant l’exploitation de Apache Kafka pour le streaming à grande échelle. Vous contribuerez également à l’observabilité et à la qualité des données via la stack Elasticsearch / Logstash / Kibana, en collaboration étroite avec les équipes Data et DevOps. Ce rôle clé implique un haut niveau d’exigence technique, la fiabilité des systèmes en production et l’accompagnement des ingénieurs plus juniors
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5270 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois