Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 755 résultats.
Mission freelance
Data Scientist
Orcan Intelligence
Publiée le
Large Language Model (LLM)
MLOps
Python
5 mois
500-650 €
Paris, France
Nous recherchons un/e Data Scientist pour rejoindre une équipe dynamique en Région parisienne (onsite 1x par semaine). Vous participerez à la conception et à la mise en œuvre de solutions de data science et d’apprentissage automatique à fort impact, contribuant directement à la création de valeur pour l’entreprise. Missions principales Concevoir et implémenter des solutions de data science de bout en bout pour résoudre des problématiques métier. Extraire, nettoyer et analyser de grands volumes de données, notamment à l’aide de Teradata Vantage et SQL . Construire et déployer des modèles de machine learning en Python . Exploiter des feature stores pour le développement et la mise en production des modèles. Explorer et appliquer des approches en IA générative (LLM, transformers) selon les cas d’usage. Définir des stratégies de data science alignées avec les objectifs métier et la feuille de route data de long terme. Communiquer méthodologies, résultats et recommandations à des publics variés (techniques et non techniques). Préparer et présenter des analyses et recommandations claires à différents niveaux (direction, opérationnel, technique). Collaborer avec les data engineers, analystes et experts métier pour intégrer les solutions en production. Contribuer à l’amélioration continue des outils, processus et bonnes pratiques en data science.
Offre d'emploi
ARCHITECTECTE INFRASTRUCTURE INFORMATIQUE
KEONI CONSULTING
Publiée le
API
Linux
Microsoft Windows
18 mois
20k-60k €
500 €
Saint-Aubin, Île-de-France
MISSIONS Principales activités : • Audit et analyse de l’architecture existante • Conception de l’architecture logicielle au niveau fonctionnelle (modèle C4, cf ) et technique • Conseiller sur les bonnes pratiques et le respect des méthodologies définies dans la cellule d'architecture • Accompagnement de la MOA et de la MOE dans les décisions technologiques • Veille technologique, prototypage et/ou validation de solutions techniques Validation de la mise en œuvre de l’architecture développée ;
Offre d'emploi
DBA Expert MongoDB (H/F)
AVA2I
Publiée le
Azure
Database
Mongodb
3 ans
Île-de-France, France
Dans le cadre du renforcement des équipes IT et de l’évolution des plateformes data vers le cloud, un acteur du secteur de l’énergie recherche un DBA MongoDB expert pour intervenir sur des environnements Azure PaaS à forte criticité, basés sur les technologies MongoDB. Le poste est orienté expertise opérationnelle et technique. Il ne s’agit pas d’un rôle d’architecte mais d’un référent MongoDB capable d’intervenir en profondeur sur la plateforme. Missions principales Administration et exploitation de bases MongoDB en environnement Azure PaaS. Maintien en Conditions Opérationnelles incluant la performance, la disponibilité et la sécurité. Supervision des bases et suivi des indicateurs. Optimisation des performances avec tuning avancé et gestion des index. Gestion des volumes, de la réplication et de la haute disponibilité. Gestion des incidents complexes de niveau N2 et N3. Diagnostic et troubleshooting avancé MongoDB. Réalisation des montées de version et opérations de maintenance. Mise en place et suivi des bonnes pratiques incluant les sauvegardes, restaurations, la sécurité et la supervision. Support technique aux équipes applicatives et rôle de référent MongoDB. Environnement technique MongoDB avec expertise indispensable. Azure PaaS incluant Cosmos DB API MongoDB et MongoDB managé. Cloud Microsoft Azure. Automatisation et scripting PowerShell, Python ou équivalent. Supervision, sécurité et haute disponibilité.
Mission freelance
Data Engineer - Azure / Databricks / Power BI
CHOURAK CONSULTING
Publiée le
Azure
Azure Data Factory
CI/CD
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir au sein d’un acteur structuré du secteur des services, sur une plateforme data moderne basée sur Microsoft Azure . 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de faire évoluer et industrialiser une plateforme analytique reposant sur Azure & Databricks , avec une forte interaction avec les équipes BI et métiers. ⚙️ Missions principales Concevoir et développer des pipelines de données sur Azure. Mettre en œuvre des traitements et transformations sur Databricks (PySpark / SQL) . Modéliser et structurer les données pour la consommation BI. Collaborer avec les équipes Power BI pour optimiser les datasets. Participer à l’industrialisation (CI/CD, bonnes pratiques, documentation). Contribuer à l’amélioration continue de l’architecture data.
Mission freelance
DATA SCIENTIST
Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Offre d'emploi
Data Analyst - Data Scientist
VISIAN
Publiée le
IA
Machine Learning
Natural Language Processing (NLP)
1 an
40k-45k €
400-670 €
Île-de-France, France
🎯 Mission principale Au sein d’une organisation spécialisée dans la data et les solutions de paiement, vous contribuez à la mise en place de projets décisionnels et Big Data en collaboration avec les équipes métiers et IT. 🧩 Responsabilités principales Contribuer à des projets décisionnels et Big Data. Participer à l’animation d’ateliers et de groupes de travail avec les utilisateurs et équipes techniques. Recueillir et analyser les besoins métiers. Concevoir et développer des reportings décisionnels : définition d’indicateurs statistiques, qualité et financiers Réaliser des analyses exploratoires de données. Rédiger la documentation projet : spécifications fonctionnelles et techniques cahiers de tests et de recette Participer aux phases de validation et de recette. Former et accompagner les utilisateurs finaux.
Offre d'emploi
Ingénieur DevOps Blockchain
VISIAN
Publiée le
Blockchain
Python
1 an
40k-45k €
320-400 €
Île-de-France, France
Descriptif du poste Equipe Blockchain Plateforme As A Service pour déploiement, gestion et support des nœuds blockchain. La mission consiste à travailler avec des technologies blockchain de pointe et à construire des services dans des infrastructures critiques. Dans le cadre de l'équipe ITO/PaaS/Blockchain, vous participerez à la création et au maintien des architectures Blockchain pour les besoins internes de l'entreprise. Pour renforcer l'équipe OPS, nous proposons une mission autour de la blockchain. L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées : Ansible Git/Bitbucket Développement Python et REST APIs Responsabilités Déploiement et gestion des nœuds blockchain Support des clients internes avec leurs besoins d'infrastructures blockchain et leurs incidents Implémentation et maintien de l'automatisation de l'infrastructure en utilisant les principes et technologies DevOps Développement des outils internes en Python et en Golang Administration et optimisation de plateformes Linux Surveillance des performances des réseaux blockchain et assurance de la haute disponibilité Collaboration avec les équipes internes, compréhension des exigences et livraison des solutions Participation aux rotations d'astreintes Compétences techniques requises Compréhension des bases de la blockchain et des systèmes distribués Expérience en administration Linux Expérience en programmation, de préférence Python ou Golang Familiarité avec les pratiques et les outils DevOps Compréhension des concepts de conteneurisation et d'orchestration
Offre d'emploi
Ingénierie en sécurité Opérationnelle - IDF – Authentification-N2
KEONI CONSULTING
Publiée le
Linux
Python
Single Sign-on (SSO)
18 mois
20k-60k €
100-450 €
Paris, France
CONTEXTE Objectif global : Administrer les solutions d'authentification MISSIONS Description détaillée Dans le cadre de l’équipe Access Control, nous recherchons un candidat pour assurer le RUN (MCO/MCS) des plateformes SSO et d’authentification, et contribuer à leur évolution dans un environnement banque / assurance fortement réglementé (sécurité, conformité, disponibilité). Le périmètre exact pourra être ajusté, mais couvrira notamment : Plateformes SSO / fédération d’identités (type : SAML, OpenID Connect, OAuth2) Solutions d’annuaire / LDAP / AD / AAD MFA / authentification forte, certificats, gestion des secrets Intégration avec les applications métiers (web, API, mobiles) Une bonne connaissance de Ilex Sign & Go est un vrai plus Missions principales Le candidat interviendra au sein de l’équipe Access Control et aura pour missions principales : RUN / MCO Assurer l’exploitation quotidienne des plateformes SSO et d’authentification Superviser les composants (disponibilité, performances, logs, alertes) Gérer les incidents N2/N3 : diagnostic, résolution, escalade, communication Analyser les causes racines (RCA) et proposer des actions préventives Participer aux astreintes / plages étendues le cas échéant Administration & intégration Gérer les configurations SSO et les fédérations d’identités (SAML, OIDC, OAuth2) Intégrer de nouvelles applications au SSO (création de connecteurs, policy, mappings, scopes) Participer aux mises à jour, montées de version, campagnes de patching Contribuer à la sécurisation des parcours d’authentification (MFA, durcissement, etc.) Amélioration continue & documentation Mettre à jour et enrichir la documentation d’exploitation et les procédures Contribuer à l’industrialisation et à l’automatisation des opérations récurrentes (scripts, CI/CD, Ansible, etc.) Participer aux comités techniques et proposer des optimisations (performance, sécurité, résilience) Profil recherché Expérience significative (≥ [3/5] ans) en exploitation / RUN de plateformes d’authentification et SSO en environnement de production critique Maîtrise des protocoles d’authentification et de fédération : SAML 2.0, OAuth2, OpenID Connect Bon niveau sur les environnements Linux (et/ou Windows) et les briques techniques associées : HTTP(S), reverse-proxy, certificats TLS, DNS, firewall, load balancing Connaissance des concepts IAM : gestion des identités, annuaires LDAP/AD, MFA, RBAC/ABAC Pratique des processus ITIL (incident, problème, changement) et des contraintes de production d’un grand compte (banque / finance idéalement) Capacité à diagnostiquer des incidents complexes (analyse de logs, traces HTTP, tokens, etc.) Compétences techniques appréciées Expérience sur une ou plusieurs solutions du marché (ex. : Ilex,ForgeRock, Ping, Keycloak, Azure AD, WSO2, IBM, etc.) Outils d’industrialisation / scripting : Bash, PowerShell, Python, Ansible, CI/CD, etc. Connaissance des contraintes réglementaires et de conformité du secteur bancaire Soft skills Sens du service et de la fiabilité en production Rigueur, capacité de formalisation et de documentation Esprit d’équipe, bonne communication avec les équipes projets, sécurité, infra et support Autonomie, proactivité, capacité à alerter et à proposer des améliorations Modalités de réponse Compétences techniques SSO - Confirmé - Important administration windows - Junior - Souhaitable Fédération d'identité (SAMLv2, WS-Fed...) - Confirmé - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif)
Mission freelance
AI Agent Engineer e-commerce (Paris, Bordeaux, remote France) H/F
Pickmeup
Publiée le
LangChain
LangGraph
Large Language Model (LLM)
3 ans
550-650 €
France
Concevoir et développer des AI agents (LangChain, LangGraph, LangFlow ou équivalent) Mettre en œuvre des solutions basées sur LLMs et RAG Concevoir des architectures scalables (évaluation, monitoring, testing, déploiement) Participer au cycle complet : design, MVP, itérations et industrialisation Mettre en place des frameworks réutilisables pour accélérer les développements Assurer une veille active sur les nouvelles approches IA Environnement technique Python, PyTorch / TensorFlow, Spark, Databricks, AWS, SQL, Airflow, Delta Lake
Mission freelance
Expert Cyber CNAPP
Codezys
Publiée le
CrowdStrike
cyberark
Gestion des accès privilégiés (PAM)
12 mois
Lille, Hauts-de-France
Nous sommes à la recherche d'un consultant expert en cybersécurité pour accompagner notre équipe dans une phase de transition stratégique majeure. Le prestataire aura la double responsabilité de piloter l'implémentation de notre nouvelle solution CNAPP (Cloud Native Application Protection Platform) tout en assurant la maintenance en conditions opérationnelles (MCO) et l'évolution de nos solutions de détection (EDR) et de gestion des accès (PAM). Contexte technique : Environnement hybride combinant des infrastructures On-premises, Azure et GCP. Objectifs et Missions principales Build : Implémentation du CNAPP Design & Déploiement : Concevoir l'architecture de la solution CNAPP adaptée afin de couvrir un périmètre multi-cloud, intégrant CSPM, CWPP et CIEM. Accompagnement : Assister l'équipe de gouvernance cloud dans la définition des politiques de sécurité (guardrails) ainsi que dans l'établissement des frameworks de conformité. Intégration DevSecOps : Incorporer le scan des vulnérabilités et la gestion des secrets dans les pipelines CI/CD afin d'assurer une sécurité intégrée dès la développement. Run & Évolution : Gestion et développement des solutions PAM (Environnement Hybride) Administration : Gérer le cycle de vie des comptes à privilèges élevés tant sur l'infrastructure On-premises que sur les consoles cloud Azure et GCP. Expansion : Poursuivre l'onboarding des comptes critiques et mettre en place le mode Just-in-Time (JIT) pour les accès privilégiés. Maintenance : Garantir la disponibilité des bastions et assurer la gestion sécurisée des coffres-forts de mots de passe. Run & Évolution : Solutions EDR (Endpoint Detection & Response) Maintien en condition opérationnelle : Superviser le déploiement des agents EDR sur l'ensemble du parc (workstations et serveurs). Optimisation : Affiner les politiques de détection afin de réduire le nombre de faux positifs et améliorer la précision des alertes. Ce poste exige une expertise approfondie en cybersécurité, une capacité à conduire des projets techniques complexes et une bonne compréhension des environnements multi-cloud. Le candidat idéal saura conjuguer technicalité, rigueur et esprit d'équipe pour faire face à ces enjeux cruciaux.
Offre d'emploi
ingénieur de production (H/F)
STORM GROUP
Publiée le
Control-M
Linux
Openshift
3 ans
40k-45k €
320 €
Toulouse, Occitanie
Contexte : Après une période de montée en compétences sur nos outils et processus internes, le consultant sera responsable d’un périmètre applicatif spécifique. Les missions principales de ce poste : Maîtrise Technique et Fonctionnelle : Acquérir une connaissance approfondie des applications attribuées (écosystème, interactions et les flux associés) Communication : Assurer une communication quotidienne efficace avec les équipes internes et les interlocuteurs de la DSI, garantissant ainsi le partage d’informations. Participation aux rituels du département : Contribuer activement aux rituels agiles : Daily, sprint planning, rétrospectives, démos, etc.. Phase BUILD : Servir de point d'entrée entre nos clients et les autres directions, facilitant une communication fluide Exiger et participer à la production de livrables projet tels que le dossier d’exploitation et les consignes opérationnelles. Provisionner les infrastructures nécessaires pour les différents environnements d’exploitation. Assurer un reporting régulier au sein de l’équipe et alerter proactivement sur les problèmes rencontrés. Valider les propositions d’architecture faites par les architectes DSI, en garantissant leur adéquation avec les exigences techniques. Garantir le respect des règles et normes, en promouvant les meilleures pratiques dans tous les aspects du développement. Participer à la mise en place des chaînes d’intégration et déploiement continu (CI/CD) pour optimiser les processus de développement. Insister sur l’importance des installations automatisées, y compris pour les progiciels. Projeter l'exploitabilité de l'application dès les phases de développement, en s'assurant de la présence de logs, de supervisions et un ordonnancement efficace. Organiser et réaliser la présentation des nouvelles applications mises en production à l'ensemble du département. Cette présentation inclura une vue d'ensemble des infrastructures, des documentations, des consignes opérationnelles et des flux associés, afin d'assurer une compréhension claire et partagée de leur fonctionnement et de leur impact. Phase RUN : Participer aux activités de Maintenance en Conditions Opérationnelles (MCO) pour l’ensemble des applications du département. Documenter de manière exhaustive les applications sous sa responsabilité, garantissant ainsi une traçabilité et une compréhension claires. Organiser et mener des échanges réguliers avec la DSI pour s’assurer d’une collaboration harmonieuse. Respecter et promouvoir les normes de conception pour les chaînes de traitement en collaboration avec les équipes de développement. Identifier et mettre en œuvre des optimisations pour améliorer l’exploitation des applications sous sa responsabilité. Conditions de Travail : Des astreintes seront proposées après une période d’apprentissage. Des interventions HNO pourront être nécessaires. Le télétravail est limité à 10 jours par mois, validé selon l’autonomie du collaborateur. Spécificités pour les tests techniques : Prise de connaissance du changement et de son contexte technique Complète le plan de tests proposé Prépare les infrastructures de tests Valide les documents et les procédures à destination de la production Réalise les différents tests techniques Analyse les résultats Contribue au diagnostic en cas de dysfonctionnement Rédige les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production Constitue ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures Effectue le reporting vers le Responsable Intégration Contribue à l'amélioration continue Industrialise les tests techniques récurrents (automatisation, outillage…) Développe des scripts et les outils pour automatiser les tâches et améliorer l'efficacité des opérations Conçoit et maintient l'automatisation à l'aide d'outils tels que Terraform ou Ansible Finops: Propose des solutions pour optimiser les performances et réduire les coûts Accompagne les équipes de développement dans la mise en oeuvre des meilleures pratiques de sécurité et l'utilisation des outils DevSecOps Se maintient à jour sur des nouvelles menaces de sécurité et les évolutions des outils DevSecOps pour une amélioration continue des processus
Offre d'emploi
Administrateur DBA Production Expert
KEONI CONSULTING
Publiée le
AWS Cloud
Nosql
Python
18 mois
20k-60k €
100-520 €
Lille, Hauts-de-France
CONTEXTE l’administrateur de bases de données (DBA) prend en charge des projets techniques tout en contribuant au maintien en condition opérationnelle des environnements SGBD relationnels et NoSQL sur notre Cloud (AWS / MongoDB Atlas). Nous recherchons une personne disposant d’une très bonne maîtrise des concepts SGBD, d’une connaissance approfondie du Cloud AWS, ainsi que d’un solide bagage en développement et en automatisation des systèmes (Python, Terraform, Git). MISSIONS - Être le contact privilégié sur la partie SGBD pour des projets techniques - Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories et le pilotage sur des tâches SGBD - Contact régulier avec les architectes, développeurs et chefs de projets - Organisation, réalisation ou délégation des opérations de maintenance technique (type bascule cluster ou architecture répliquée, …) - Optimisations des performances et vigilance sur le capacity planning et la frugalité des environnements - Passage de livraisons applicatives et traitement des demandes courantes - Montée de versions SGBD ; application des patchs de sécurité, upgrade version majeure - Création et duplication d’environnements SGBD (instances / bases / schéma) - Suivi d’incidents avec les supports Editeur (Ex : Oracle Corp, Mongo Inc.) - Suivi des sauvegardes et tests de restauration - Mise en place de la supervision et test d’alerting - Rédaction de procédure pour enrichir la base de connaissances de l’équipe - Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes - Astreintes et opérations en heures non ouvrées à prévoir. Astreintes obligatoires à la grille achat (1 semaine / mois lundi>dimanche) Spécificités Cloud - Intégrer de nouvelles solutions Cloud (DynamoDB, DocumentDB, RDS, etc.) au catalogue de service, en mettant au point les parties supervision, sauvegardes, monitoring, mise en production, etc. - Accompagner les factories : conseils sur les traitements applicatifs, le déploiement, l’exploitabilité et le traitement des alertes. Interactions : Equipes d’Exploitation, Factories, Architectes IT, Sécurité, CDP, Observabilité Livrables • Prise en charge des projets techniques tout en participant au maintien en condition opérationnelle des environnements • Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories • Passage de livraisons applicatives et traitement des demandes courantes • Suivi d’incidents avec les supports Editeur (Ex : AWS, Mongo Inc.) • Suivi des sauvegardes et tests de restauration • Mise en place de la supervision et test d’alerting • Rédaction de procédure pour enrichir la base de connaissances de l’équipe • Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes Le profil recherché ... ... connait le SQL / NoSQL ... connait l’environnement et les différentes technologies de DB sur le cloud AWS … peut nous apporter son expertise technique pour challenger des projets structurants ... est en mesure de nous accompagner dans le développement Infra As Code de nos solutions (Terraform, Ansible, Python) • SQL/noSQL • AWS • InfraAsCode (Python / Terraform / Git) • Architecture applicative • Connaissance en production • Bonne capacité à travailler en équipe • Force de proposition • Capacité de coordination • Autonomie Compétences clés : Obligatoire : Python, Terraform, AWS, Aurora PostgreSQL, Mongodb, Gitlab, Connaissance production.
Mission freelance
Data Product Owner
SKILLWISE
Publiée le
Azure
MySQL
Python
3 mois
400-550 €
La Défense, Île-de-France
Nous recherchons pour un de nos clients un Data Product Owner qui sera le responsable de la vision analytique d’un domaine métier. Son rôle est de comprendre en profondeur les besoins des utilisateurs, de transformer ces besoins en produits data concrets et de garantir que les équipes techniques livrent des solutions fiables, utiles et alignées sur les priorités de l’entreprise. Il travaillera au quotidien avec les métiers, les Data Engineers, les Data Analysts et les équipes IT pour créer de la valeur grâce aux données.
Offre d'emploi
Tech Lead Data Engineer - Databricks
VISIAN
Publiée le
AWS Cloud
Databricks
PostgreSQL
1 an
40k-70k €
400-700 €
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Offre d'emploi
Data Engineer H/F
OBJECTWARE
Publiée le
Microsoft Power BI
Python
SQL
1 an
Tours, Centre-Val de Loire
Missions : Animation du processus (Coordination des correspondants, Suivi des données d’entrée nécessaires à l’exécution, reporting…) Administration et exploitation de l'application métier (Paramétrage, Exécution des traitements…) Support utilisateur & MCO (Assistance fonctionnelle niveau 1 & 2, Diagnostic, résolution d’incidents, escalade si nécessaire...) Planification et organisation des recettes, Formalisation des PV Création/mise à jour de fiches d’assistance, manuels utilisateurs, procédures d’ingénierie
Offre d'emploi
DATA ENGINEER GCP
UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL
6 mois
40k-71k €
400-630 €
Paris, France
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
755 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois