Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance
Data Architect
Missions Pour l’un de nos clients du secteur du luxe, vous intervenez sur des missions à forte valeur ajoutée en tant que Architecte Data. En étroite collaboration avec vos interlocuteurs, vous accompagnez et conseillez notre client dans le cadre de la gestion du cycle de vie de ses infrastructures actuelles et participez au projet d’évolution et au maintien en condition opérationnelle. Vos tâches seront les suivantes : Conception de l’architecture et vérification de l’implémentation des briques technologiques des plateformes de données (Collecte, Stockage, Traitement, Visualisation). Responsable du suivi des principes établis au niveau du groupe (architecture, sécurité et confidentialité des données) dans les plateformes de données. Soutien à la stratégie NFR en lien avec le Data Tech Lead de chaque équipe Data Product. Support à la stratégie de données définie par l’équipe Data (fondations techniques : GCP, Google Big Query, DBT et Airflow/Composer). Conduire et prendre en charge la feuille de route technique des plateformes de données. Apporter une expertise sur les architectures et les plateformes de données pour aider les différents acteurs à suivre la stratégie de données. Piloter l’évaluation et l’optimisation des architectures de données. Documenter l’architecture (Confluence) et assurer le suivi des actions d’implémentation (Jira).

Offre d'emploi
Data Engineer GCP
Bonjour, Je vous envoie ce mail car dans le cadre d'une mission de longue durée pour notre client situé en à Paris, nous recherchons un Data Engineer GCP. Type de profils confirmé (> 5 ans d'expérience) Technologies GCP (expérience obligatoire sur ce cloud provider) Python (expérience obligatoire) Bonne maîtrise BigQuery (obligatoire) Bonne maîtrise Terraform Git (obligatoire) Dans le cas où vous êtes intéressé, pourriez-vous svp envoyer votre CV au format Word en indiquant votre disponibilité ainsi qu'une fourchette de vos prétentions salariales ou de votre tarification journalière si vous êtes indépendant ?

Mission freelance
DATA ENGINEER SIRH INFORMATICA
Mission de Data Engineer expérimenté ayant une forte maitrise de l'ETL Informatica. Au sein d'une équipe de 5 Data Engineer, vous travaillerez en collaboration avec les métiers SIRH. Modélisation de données RH ... Objectif principal : Concevoir, développer et maintenir des solutions d'ingestion, de traitement et d'analyse des données pour assurer leur disponibilité, qualité et performance. Responsabilités : Collecte et intégration des données : Intégrer des sources de données internes et externes dans les systèmes de traitement. Conception des pipelines de données : Créer et maintenir des pipelines pour le traitement, le nettoyage et l’enrichissement des données. Gestion des bases de données : Assurer le stockage efficace et sécurisé des données dans des bases de données relationnelles ou NoSQL. Optimisation des performances : Analyser et optimiser les flux de données pour garantir une efficacité maximale. Collaboration avec les équipes : Travailler avec les Data Scientists et Analystes pour comprendre les besoins en données et fournir les solutions adaptées. Compétences requises : Techniques : Maîtrise de SQL, Python, Spark, Hadoop, et outils ETL INFORMATICA Outils de gestion de données : Expérience avec des systèmes de gestion de bases de données (PostgreSQL, MongoDB, Redshift ) Data Warehousing & Big Data : Connaissance des architectures de données à grande échelle et des environnements cloud (AWS, GCP, Azure). Automatisation et performance : Capacité à automatiser les processus et optimiser les performances des systèmes. Profil recherché : Formation : Bac +5 en Informatique, Data Science, ou équivalent. Expérience : 7 ans dans un rôle similaire en Data Engineering. Langues : Maîtrise du français, l'anglais est un plus

Mission freelance
DEVELOPPEUR BACK ref 1181
Python - Expert - Impératif GCP - Confirmé - Important Java - Junior - Souhaitable Terraform - Junior - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée Nous sommes à la recherche d'un développeur backend expert Python (Pas de profiles Data) En tant Développeur Back-end, vous interviendrez sur le produit Pipelines, qui rassemble un ensemble d’outils permettant aux équipes produits de construire et monitorer leurs data pipelines en complète autonomie. A ce titre, voici vos missions : Développer des microservice en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Concevoir des outils facilitant le développement de modules. Communication entre micro service Développement d’un scheduler / Développement d’un dispatcher Mise en place d’outils de monitoring Assistance des utilisateurs sur le run technique MOB, Pair review

Mission freelance
Responsable Run
PS : Mission à Lille, présence obligatoire 3j/semaine Votre mission : Construire avec le product manager et mettre en place la roadmap autour de la paie Piloter les indicateurs de performance et la qualité de service des éditeurs via les SLI/SLO/SLA Mettre en oeuvre et piloter la supervision des flux, Assister et conseiller les équipes métier dans le traitement des anomalies Assurer le bon fonctionnement de la chaîne de support et l'expertise N3 sur les incidents techniques S'assurer de la mise en œuvre des exigences digitales, de la sécurité et de la protection des données Assurer l'exposition des données au sein de la data platform (GCP) et en mesurer la qualité Être l'interlocuteur privilégié de l'éditeur du produit sur les aspects techniques Traduire les besoins d'évolution métiers en fonctionnalités IT au travers de spécifications Mesurer l'adoption utilisateur en tenant compte des feedbacks des collaborateurs La mission nécessite une forte implication sur le domaine métiers et fonctionnels des produits autour de la paie et de la gestion administrative (Produit Saas, briques internes). Les interactions avec les équipes métiers sont fortes et nombreuses

Offre d'emploi
Support cloud
En tant qu'Ingénieur Support Cloud, vous serez responsable de la gestion et du support des environnements cloud de BNP Paribas. Vous travaillerez en étroite collaboration avec les équipes d'ingénierie, d'infrastructure et de développement pour assurer la disponibilité, la performance et la sécurité des services cloud. Responsabilités : Assurer le support technique des environnements cloud (IBM, AWS, Azure, Google). Gérer les incidents et les demandes de service liés aux infrastructures cloud. Participer à la mise en place et à l'amélioration des processus de gestion des incidents et des changements. Collaborer avec les équipes de développement pour optimiser les déploiements et les configurations cloud. Surveiller les performances des systèmes et proposer des améliorations. Documenter les procédures et les configurations mises en place. Qualifications : Diplôme en informatique, ingénierie ou domaine connexe. Minimum de 5 ans d'expérience en opérations IT ou en ingénierie logicielle. Au moins 2 ans d'expérience pratique avec un fournisseur de cloud (IBM, AWS, Azure, Google). Expérience avec Ansible, Docker et Kubernetes. Certification Red Hat Enterprise Linux Automation avec Ansible (RH294) et Certified Kubernetes Application Developer (CKAD) sont un plus1. Compétences requises : Excellentes compétences en communication et en résolution de problèmes. Capacité à travailler en équipe et à gérer plusieurs tâches simultanément. Rigueur et attention aux détails. Disponibilité pour des astreintes et interventions en dehors des heures de bureau si nécessaire.

Mission freelance
Ingenieur SYSTEME WINDOWS & CLOUD AZURE & GCP
Poste : Ingénieur Système Windows CLOUD (GCP) Missions Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..) Compétences et qualités personnelles Vous avez une expérience solide sur Azure et GCP ainsi que sur les outils d’automatisation (Terraform) et de CI/CD. Bonnes connaissances des serveurs Windows et Linux Bonne qualité rédactionnelle Connaissances dans la rédaction de cahier des charges, documentation d’architecture et d’exploitation Connaissance du référentiel ITIL serait un plus Vous êtes autonome, rigoureux et polyvalent. Vous avez un bon niveau d'anglais. Télétravail : 2 jours par semaine
Offre d'emploi
Business Data Analyst DATAIKU H/F
Descriptif général de la mission / Livrables et dates associées Vous avez une expérience réussie au sein d’une DSI et vous justifiez d’une connaissance dans le domaine de l’assurance de personnes. Autonome et organisé, vous êtes reconnu(e) pour votre esprit d'analyse et de synthèse. Appréciant le travail en équipe, vous êtes force de proposition / d'innovation et savez travailler en transverse, tout en faisant preuve d'adaptation au changement. Vous avez également le sens de la communication et du service. Maitrise l'infrastructure GCP - l'outillage de data Prep (Dataïku) - les infrastructures IA" Environnement fonctionnel & technique "Les équipes DATA interviennent pour l'ensemble des activités de Métier Assurances De Personnes ( Equipes de la finance (et en particulier les actuaires - les comptables) / les équipes produits / les équipes réglementaire / la DUX… ) Vous intervenez sur toutes les phases du projet et pouvez en coordination avec les équipes d'architecture DATA être amener à préconiser des solutions techniques spécifiques Méthodes & Outils "méthode agile safe JIRA Confluence GCP / AZURE SQL / Big Query Dataïku / Power Bi

Mission freelance
Ingénieur Cloud & Production IT
Missions Dans le cadre d’un projet pour un client du secteur du luxe , nous recherchons un Ingénieur Cloud & Production IT spécialisé sur Azure et GCP , avec une forte expertise en gestion des infrastructures Cloud et en automatisation des services. La mission est composée à 80 % de RUN (OS / Cloud) et à 20 % de DevOps . Vos tâches seront les suivantes : Gestion des infrastructures Cloud : Administration et exploitation des services IaaS et PaaS en collaboration avec les partenaires Cloud. Supervision et gestion des serveurs Windows (90%) et Linux (5%) sur Azure (85%) et GCP (10%) . Maintien en condition opérationnelle de niveau 3, en lien avec les hébergeurs et infogérants. Automatisation et optimisation : Déploiement et gestion des services via Terraform et outils CI/CD . Rédaction et mise à jour des documents techniques (DINS, DEX, cahiers des charges, documentation d’architecture et d’exploitation) . Support et amélioration continue : Identification et mise en œuvre d’améliorations sur les infrastructures existantes. Participation à l’élaboration des bonnes pratiques ITIL pour optimiser l’exploitation Cloud.

Offre d'emploi
Ingénieur Sécurité Cloud (AZURE/GCP)
Soutenir la mise en œuvre de notre stratégie de sécurité du Cloud public (Azure/GCP). Développer, mettre en œuvre et appliquer des politiques, des normes et des procédures de sécurité. Mise en œuvre des solutions d'audit et de journalisation pour suivre et rapporter les événements et anomalies liés à la sécurité. Mettre en place et maintenir les outils pour une surveillance proactive des événements de sécurité. Contrôler l'application en temps voulu des correctifs et des mises à jour de sécurité aux ressources Azure et GCP. Fournir des programmes de formation et de sensibilisation sur les meilleures pratiques et les risques en matière de sécurité. Diriger la mise en œuvre de plans de remédiation et d'amélioration continus.

Mission freelance
Data Engineer
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - GCP, BigQuery, SQL, Python, Stambia, Shell, Data Studio, Power BI, Qlikview,... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais

Offre d'emploi
Lead Data Analyst pour Plateforme Tech de Voyage Leader en Europe - Aix en Provence (H/F)
Description Rejoignez une entreprise innovante au cœur du secteur du voyage en ligne, basée dans le sud de la France. Nous sommes à l'aube d'une transformation digitale majeure visant 2025, mettant les données au centre de notre stratégie de développement. L'équipe, à laquelle vous serez rattaché, est composée de professionnels passionnés par la technologie et par l'amélioration continue de l'expérience de voyage de nos millions d'utilisateurs. Nous recherchons un(e) Lead Data Analyst pour structurer notre exploitation des données et piloter notre croissance future. Ce poste est clé pour accompagner notre ambition de devenir une référence mondiale sur notre secteur d’activité. Missions Principales : - Piloter l'analyse avancée des données pour épauler la prise de décision stratégique. - Définir et superviser les KPIs essentiels des différents départements. - Encadrer et développer l'équipe Data Analytics. - Collaborer avec les équipes Data Science pour optimiser l'usage des données dans les projets d'IA. Annexes : - Améliorer les outils et process d'analyse et de visualisation des données. - Organiser et piloter des sessions de brainstorming pour l'amélioration continue des méthodes de travail. Stack technique A maîtriser : - Google Cloud Platform (BigQuery, GCS, ) - Python, SQL, Airflow, dbt - Tableau, Looker - GitLab Avantages - Salaire attractif et participation aux bénéfices. - Télétravail flexible, jusqu'à 2 jours par semaine. - Accès à un cadre de vie unique avec salle de sport et terrain de padel. - Offres exclusives sur les voyages. Pourquoi nous rejoindre ? - Prenez part à une mission passionnante au sein d'une entreprise révolutionnant le secteur du voyage en ligne. - Contribuez à une transformation digitale ambitieuse centrée sur les données. - Travaillez dans un environnement dynamique et innovant, bénéficiant d'une culture d'entreprise forte et engagée envers le développement personnel. - Rejoignez une équipe talentueuse dans un cadre de vie exceptionnel favorisant l'équilibre entre vie professionnelle et personnelle. Venez marquer l'histoire du voyage en ligne avec nous. Postulez dès maintenant pour être le Lead Data Analyst qui conduira notre succès futur !

Mission freelance
Un Ingénieur Système Cloud GCP sur Le 78
Smarteo recherche pour l'un de ses clients, grand compte, Un Ingénieur Système Cloud GCP sur Le 78 Projet : Continuer les actions d'automatisation et de fiabilisation ; Opérer les revues de code ; Opérer la veille technologique ; Réaliser des présentations techniques ; Assurer le support technique niveau 3 auprès des développeurs traiter tant les aspects techniques et fonctionnels et intervenir sur l'ensemble des environnements de l'intégration à la production y compris dans le cadre de projets. Gestion production/run des projets (astreintes) Vous serez aussi amenés à rédiger des dossiers techniques précis, des avis techniques, ainsi que des feuilles de route à destination des chefs de projet et des opérationnels devant mettre en oeuvre et exploiter les solutions. Principaux livrables : Concevoir la solution ; Paramétrer, développer et qualifier des solutions applicatives ; Établir l'analyse et le diagnostic sur les incidents et les éradiquer ; Mettre en place, mener ou piloter le déploiement des applications développées ; Rédiger ou participer à la rédaction des dossiers de conception générale et/ou détaillée ; Analyser les traitements pour réaliser les études détaillées ou les études d'impact. Compétences requises : Expertise et expérience significative sur Terraform. Définition de module Terraform Expertise sur le Cloud GCP et AWS si possible . Maitrise des outils de déploiement automatisés Pipeline CI CD (gitlab-ci, ansible, AWX, jenkins etc.), language python Connaissance sur les technologies kubernetes Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible.
Offre d'emploi
Data Engineer
L'Ingénieur Data intégrera une équipe spécialisée en gestion et valorisation des données. Il/Elle sera responsable de l'acquisition et de la modélisation des données afin de fournir des résultats exploitables pour l'analytique et la data science. Le rôle impliquera la création de modèles de données consommables et de visualisations, tout en assurant la gestion complète du cycle de vie des données, de leur ingestion à leur traitement et préparation. Il/Elle travaillera en étroite collaboration avec les équipes data et métiers afin d’assurer la cohérence et la fiabilité des produits de données développés. Traduire les besoins métier en spécifications techniques, en collaboration avec les parties prenantes. Estimer, planifier, gérer et diriger les projets/tâches d'intégration des données. Coordonner les tâches et la charge de travail avec les autres ingénieurs data. Concevoir et développer des processus ETL/ELT et des flux de données pour fournir des résultats exploitables en analytique et data science. Créer des modèles de données et des visualisations intuitives et performantes. Collaborer avec les équipes de support pour assurer la cohérence et l’exactitude des données ainsi que la performance des flux livrés. Fournir un support de niveau 3 lorsque nécessaire. Définir et promouvoir les meilleures pratiques et principes de conception pour l'architecture Data Warehouse et Analytics.

Mission freelance
Ingénieur Cloud GCP F/H
Vos responsabilités : Gestion et administration des environnements GCP : Concevoir, provisionner et maintenir des infrastructures Cloud sur GCP en respectant les meilleures pratiques. Implémenter et gérer les services GCP pour répondre aux besoins métier. Exploiter et maintenir les services GCP en Prod Accompagner les Développeurs des Tribu / Squad à maintenir leur Pipeline et développer leur nouveaux pipelines, Terraform et CICD sur GCP - Accompagner les développeurs à respecter les golden Rules GCP - Exploiter et maintenir les services GCP en Prod - Accompagner et monter en compétences les DevOps du cluster BPC sur l'offre GCP

Mission freelance
Ingénieur Data
Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.