L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 68 résultats.
Mission freelance
Ingénieur·e Data
Publiée le
Databricks
Microsoft Power BI
Power Apps
3 mois
300-320 €
27100, Val-de-Reuil, Normandie
Pour l'un de nos clients leader dans le secteur de la fibre optique, nous sommes à la recherche d'un·e ingénieur·e Data pour une mission d'une durée de 3 mois renouvelables pour exercer les missions suivantes : Mettre en place les processus de collecte, d’organisation, de stockage et de modélisation des données Mettre en place une politique de données respectueuse des réglementations en vigueur. Créer d rapports et d'analyses pour aider notre client à prendre des décisions éclairées Maintenir et améliorer les bases de données existantes, en veillant à leur performance et à leur sécurité. La liste n'est pas exhaustive. La mission se situe à Val-de-Reuil et nécessite 4 jours de présentiel par semaine (1 jour de télétravail). 2 postes à pourvoir (1 profil senior, 1 profil junior) Périmètre technique : Power BI - Power Apps - Databricks
Mission freelance
Data Ingénieur BIG Data
Publiée le
Apache Hive
Apache Spark
Scala
12 mois
400-540 €
Hauts-de-Seine, France
Télétravail partiel
Vous rejoindrez notre équipe et serez en charge de gérer l'alimentation et le stockage des données via le traitement Scala/Spark pour les différents systèmes avals décisionnels, réglementaires et autres. Vos missions consisteront à contribuer: Participer à l'estimation de la complexité des chantiers techniques liés à la montée de version SPARK 3.4 Concevoir et développer les traitements applicatifs en collaboration avec les équipes, Rédiger les dossier de conception et de documentations techniques, Concevoir et exécuter les cas de tests unitaires, d'intégration, Faire la revue de code croisée, Contribuer à l'alimentation aux rétrospectives afin de garantir le process d'amélioration continue, Assurer la qualité et le suivi des développements en participant à la correction des problèmes de production,
Offre d'emploi
Ingénieur DATA H/F
Publiée le
SQL
39k-42k €
Auvergne-Rhône-Alpes, France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Ingénieur DATA H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. Votre mission En tant qu’Ingénieur·e Data, vous êtes responsable de la conception, de la mise en œuvre et du maintien des flux data de notre écosystème. Côté build : Vous participez activement à la construction et à l’évolution de la plateforme data. Missions : Accompagner le développement et l’urbanisation de la plateforme data EDS Concevoir et mettre en place des flux de données (ingestion, transformation, exposition) Développer et maintenir des pipelines data à l’aide des outils de l’écosystème (DBT, Airbyte, Dagster, SQL, Python…) Participer aux choix d’architecture data et aux bonnes pratiques de développement Rédiger les spécifications fonctionnelles et techniques en lien avec les besoins métiers Collaborer étroitement avec les équipes projets, métiers et techniques Assurer la qualité, la traçabilité et la fiabilité des données produites Côté run : Vous contribuez à la fiabilité et à la pérennité des solutions mises en production. Missions : Mettre en place et exécuter les plans de tests (fonctionnels, techniques, non-régression) Participer à la gestion de la recette fonctionnelle et à la validation des livrables Superviser les flux data en production et analyser les incidents éventuels Corriger les anomalies et proposer des améliorations continues Documenter les processus, les flux et les modes opératoires Rendre compte de l’avancement, alerter en cas de risques ou de dysfonctionnements Votre parcours Vous avez au moins 5 ans d’expérience dans un rôle d’Ingénieur·e Data, au sein d’environnements techniques exigeants. Vous aimez structurer, fiabiliser et faire évoluer des plateformes data tout en restant à l’écoute des besoins métiers. Vous recherchez un environnement où la rigueur technique s’allie à la collaboration et au partage. Votre expertise : Technologies data : DBT (Data Build Tool), Airbyte, Dagster, ClickHouse, SQL, Python Environnements Linux Outils Microsoft : Visual Studio, TFS, SQL Server Méthodologies Agile / DevOps Pratiques de documentation (spécifications, plans de tests, guides techniques) Votre manière de faire équipe : Autonomie, rigueur et sens de la méthode Capacité d’écoute, d’analyse et de synthèse Bonne compréhension des enjeux métiers Esprit d’équipe et relationnel Notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Grenoble Contrat : CDI Télétravail : 2j Salaire : De 39 000€ à 42 000€ (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Ingénieur DATA
Publiée le
44 800-54k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Le poste fait partie de la Direction de la Transformation Stratégique qui compte notamment quatre équipes data : BI & Data Analytics, Data & AI Technology, Data Science & AI, Stratégie & Projets Data. Sous l’autorité du/de la Responsable Data & AI Technology et du/de la Team Leader, le/la Data Engineer réalise la conception, le développement et la maintenance des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données. Il/elle intervient également sur l’architecture data pour garantir des solutions robustes, performantes et évolutives. Missions clés : • Conçoit, développe et maintient des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données • Assure le développement logiciel lié et prodigue son support aux équipes data & business dans leurs propres développements • Intervient sur l’architecture data pour garantir des solutions robustes, performantes et évolutives • Participe activement à la montée en compétence des équipes data & business et les accompagne dans l’adoption des bonnes pratiques data et DevOps • Administre et fait évoluer la plate-forme data en collaboration avec la DSI, développe les outils nécessaires Compétences attendues : • Expertise en Python et SQL, appliquée dans des environnements data complexes et exigeants, intégrée dans des pratiques DevOps (Git, CI/CD, ELK …) o Expérience solide et opérationnelle avec les outils de la modern data stack et notamment Snowflake, Airflow et Soda • Expérience démontrée dans la conception d’architectures data modulaires, scalables et résilientes, combinée à des connaissances avancées en infrastructure et cloud, en particulier Azure. • Forte sensibilité aux technologies émergentes, en particulier l’IA, avec une capacité à identifier des cas d’usage pour le business et à les intégrer dans des produits data mais aussi dans la plate-forme data
Offre d'emploi
Ingénieur Data - Média
Publiée le
Apache Spark
Azure DevOps
Databricks
3 ans
40k-51k €
400-500 €
Boulogne-Billancourt, Île-de-France
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Connaissances linguistiques Français Courant (Impératif) Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital.
Offre d'emploi
Ingénieur Data Event Management
Publiée le
Apache Kafka
Java
Python
1 an
40k-45k €
230-540 €
Paris, France
Télétravail partiel
Intégration au sein de l'équipe Data Event Management Intégration au sein de l'équipe Data Event Management qui gère les trois offres de services suivantes : Offre Infra. Kafka sur ITCloud OnPremise Offre Infra. Kafka sur IBMCloud/dMZR Activités principales Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail ITIL Agile/Scrum à l'échelle Product Based Projets principaux en cours Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK Technologies Utilisées Outils administratifs: ServiceNow, Jira, Confluence Infrastructure as Code: Ansible, Terraform Langages: Bash, Java (Spring/JHipster), Python Repository: Artifactory Database: SQL Server, PostgreSQL Conteneurisation: Docker/Kubernetes Provider Cloud: ITCloud, IBMCloud Orchestration: Airflow, Autosys, BPM Versionning: Git Messaging: Kafka CI/CD: GitLab CI Operating system: Redhat Monitoring: ELK, Dynatrace, LogDNA, Sysdig Sécurité: HashiCorp Vault, Cyberarc
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Offre d'emploi
Ingénieur DATA F/H
Publiée le
35k-50k €
Niort, Nouvelle-Aquitaine
Ingénieur DATA F/H - Niort Ingénieur Data F/H Rejoignez EXPERIS et contribuez à des projets stratégiques autour de la valorisation de la donnée ! Nous accompagnons nos clients dans leur transformation digitale et nous recherchons un Ingénieur Data expérimenté (niveau III) pour intégrer une équipe dédiée à la construction et à l'optimisation des plateformes et pipelines de données. Votre rôle En tant qu'Ingénieur Data, vous serez un acteur clé dans la mise en œuvre d'un nouveau modèle Data. Votre mission : garantir la fiabilité, la performance et l'accessibilité des données pour des usages métiers stratégiques. Vos principales responsabilités : Conception & Développement : Créer et optimiser des pipelines ETL/ELT pour alimenter les entrepôts et DataMarts. Modélisation : Concevoir et mettre en œuvre des modèles de données (MCD, dimensionnel) adaptés aux besoins métiers. Industrialisation : Automatiser les processus de préparation et transformation des données via Dataiku . Visualisation & Reporting : Intégrer les données pour leur exploitation dans des outils BI (Tableau ou équivalent). Maintenance & Optimisation : Assurer la performance et la qualité des flux et des infrastructures. Votre profil Expérience confirmée en conception et implémentation de processus ETL/ELT. Maîtrise du langage SQL et des outils d'industrialisation (Dataiku). Connaissances en modélisation de données et intégration pour la BI (Tableau). Capacité à challenger les solutions, chiffrer les coûts et garantir la qualité des livrables. Une expérience en BO/SAS et dans le secteur assurance vie serait un plus.
Mission freelance
INGENIEUR DATA BI - GENIO
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
[MDO] Ingénieur Data (Min 5 ans d'expérience)
Publiée le
Dataiku
ETL (Extract-transform-load)
Python
12 mois
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Mission : Collecter, analyser et exploiter les données disponibles et pertinentes pour améliorer le pilotage des activités et identifier les leviers de création de valeur pour l'entreprise. Aide aux équipes métier à développer, déployer et opérer les solutions qui leur permettront d’atteindre leurs objectifs. Sachant technique de la solution et en particulier des données manipulées. Le point de contact naturel et privilégié des équipes métier pour les sujets d’exposition, d’exploitation de données d’usines dans des conditions industrielles. Principaux résultats attendus : • Les données pertinentes pour répondre aux besoins des utilisateurs sont identifiées, capturées et choisies • Le temps et les ressources/outils nécessaires à la gestion et à l'analyse des données sont optimisées. • Les données sont analysées et partagées dans un format accessible à tous grâce à des visualisations de données • Les activités métier disposent des lignes guides et recommandations pour créer de la valeur • Les offres, services ou processus de l'entreprise sont optimisés grâce aux connaissances acquises par l'analyse et l'évaluation des données • Les prescriptions du groupe en matière d'éthique et de gouvernance des données sont appliquées et respectées. • Présentation des fonctionnalités du ou des « produits » pour les promouvoir et pour faciliter la maintenance dans la durée • Résultats de tests conforme à la stratégie de test • Catalogue des produits data (dataset) à jour • Kit de formation et outils pour les utilisateurs
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
Publiée le
Azure
BI
Cloud
24 mois
200-400 €
Paris, France
Télétravail partiel
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre d'emploi
Ingénieur Data analyst tableau
Publiée le
CRM
Microsoft Access
SQL
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
Contexte & périmètre Production d’indicateurs de performance à destination des métiers Relation Client et ADV Rôle clé d’accompagnement de l’équipe Data (2 DA internes) Contribution à l’évolution des pratiques, méthodes et à l’intégration de l’IA dans les usages métiers Profil recherché Data Analyst expérimenté / senior Compétences techniques : Tableau BDD / SQL Idéalement Salesforce / CRM (incluant Salesforce Analytics) Capacité à : Accompagner l’équipe sur les nouvelles méthodes et façons de faire Déléguer et piloter une partie des chantiers auprès de deux DA internes Profil communicant, à l’aise avec les métiers Objectifs & livrables Qualification des besoins métiers lors des points de revue Priorisation et planification des sprints (revues bi-mensuelles) Production des indicateurs dans les délais engagés Validation de la conformité des livrables avec les métiers Délégation et supervision de l’avancement de certains chantiers Consolidation et reporting d’avancement (travaux directs et délégués) Accompagnement de l’équipe sur : Méthodologie Nouvelles pratiques Usage de l’IA Suivi de la production et des engagements clients
Offre d'emploi
Ingénieur Data (Azure Data Factory)
Publiée le
Azure Data Factory
ETL (Extract-transform-load)
Microsoft SQL Server
Paris, France
Télétravail partiel
Dans le cadre d’un projet d’intégration majeur, une phase opérationnelle de migration des données a démarré cette rentrée avec une série de bascule(s) à blanc prévue(s). Vous rejoignez l’équipe data du SI source pour renforcer les travaux de migration et assurer le maintien en condition opérationnelle (MCO) des flux existants. Vos principales missions seront : Participer à la migration des données et aux bascules (à blanc puis production). Développer et maintenir les pipelines ETL/ELT sur Azure Data Factory et/ou SSIS. Concevoir et optimiser les traitements d’alimentation, de transformation et de contrôle qualité des données. Assurer le support opérationnel des flux existants (monitoring, résolution d’incidents, correction). Participer aux phases de recette, validation et suivi de bascule, en coordination avec les équipes métier et techniques. Produire des reportings d’avancement et contribuer à la qualité et la traçabilité des livrables. Travailler en transversal avec les équipes métier pour comprendre le domaine fonctionnel (Assurance / Banque, compte titres, PEA) et garantir la conformité des traitements.
Offre d'emploi
Ingénieur Big Data Production - Cloudera / Kafka (H/F)
Publiée le
Apache Kafka
Cloudera
Production
1 an
65k-70k €
450-500 €
Gironde, France
Télétravail partiel
Il s’agit d’un poste d’ingénierie d’exploitation Data senior , orienté support N2/N3, performance et fiabilité , et non d’un rôle projet, Data Engineering ou DevOps cloud généraliste. VOS MISSION PRINCIPALES Le poste est fortement hands-on , centré sur l’exploitation avancée de la plateforme Data : Assurer le support N2/N3 d’une plateforme Big Data Cloudera en production Diagnostiquer et résoudre des incidents critiques complexes (performance, disponibilité, latence) Garantir la stabilité et la performance des clusters Hadoop / Spark Administrer et optimiser Kafka : performance, gestion des offsets, scalabilité, haute disponibilité, sécurité Superviser et optimiser les composants annexes (dont Elasticsearch ) Réaliser le tuning, le dimensionnement et l’optimisation des ressources Automatiser les opérations récurrentes : scripts Shell et Python, industrialisation via Ansible, pipelines CI/CD orientés exploitation Participer à l’ évolution de l’architecture Data en lien avec les architectes Documenter, transmettre et accompagner les équipes N1 / N2 Être point de contact technique avec l’ éditeur Cloudera en cas d’escalade
Mission freelance
Ingénieur Data Oracle/SQL/Python
Publiée le
Apache Airflow
Git
Oracle
12 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Offre d'emploi
Ingénieur Data & Cloud Back-End AWS
Publiée le
50k-65k €
Île-de-France, France
Télétravail partiel
CONTEXTE La Direction du Système d’Information d’un grand groupe industriel est engagée dans une transformation digitale ambitieuse. Sa mission est d’accompagner une forte croissance industrielle ainsi que les enjeux technologiques et sociétaux actuels. Au cœur de cette dynamique, la Digital Factory constitue un levier clé de la transformation numérique. Elle a pour objectif de concevoir et de délivrer des produits et services innovants en s’appuyant sur des technologies de pointe, notamment Cloud et Data. Dans ce contexte, la DSI recherche un(e) Ingénieur Data & Cloud Back-End AWS afin de renforcer ses équipes techniques. MISSIONS 1. Développement Back-End AWS Concevoir, développer et optimiser des APIs robustes, évolutives et sécurisées (REST, API Gateway, fonctions serverless). Exposer les APIs vers des interfaces applicatives (frameworks de data visualisation et front-end web). 2. Infrastructure as Code & Automatisation Implémenter et déployer les ressources Cloud via des outils d’Infrastructure as Code. Créer et maintenir des templates et scripts permettant la reproductibilité, la traçabilité et la standardisation des environnements. 3. Ingénierie Data Mettre en œuvre des flux de collecte, de transformation et d’enrichissement de données (ETL / ELT) sur des services Cloud. Optimiser les performances et la fiabilité de l’ingestion de données à grande échelle. Développer, orchestrer et maintenir des pipelines d’ingestion complexes (temps réel et batch). 4. Intégration & DevOps Garantir la bonne exécution des pipelines CI/CD (surveillance, gestion des incidents, évolutions mineures). Collaborer étroitement avec les équipes de développement, Data et Exploitation afin d’intégrer les adaptations nécessaires. 5. Collaboration & Méthodes Agiles Participer aux cérémonies agiles et travailler en coordination avec les équipes UX et front-end. Documenter les architectures, APIs, pipelines et scripts produits.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Arnaque / scam en ligne
- Augmentation de la CSG et donc de la flat tax votée à assemblée !
- Eligibilité ACRE - carence ARE
- Micro-entreprise après EURL ?
- Notification ARE
- Appeler +33 7 56 92 74 16 Numéro de maître medium voyant sérieux honnête très puissant : Voyance - Retour affectif - travaux occultes - magie puissante
68 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois