L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 635 résultats.
Mission freelance
Product Owner Technique
Publiée le
Amazon S3
API
AWS Cloud
12 mois
430-550 €
Paris, France
Télétravail partiel
Nous recherchons un Product Owner Technique Senior pour rejoindre une équipe spécialisée dans le Platform Engineering , en charge des services et outils orientés résilience, infrastructure et FinOps . Vous piloterez des produits essentiels à la robustesse, la performance et la maîtrise des coûts d’une infrastructure Cloud AWS. Vous travaillerez avec une équipe pluridisciplinaire (Tech, SRE, Ops) et serez le garant de la qualité, de la fiabilité et de l’évolution continue des services proposés aux utilisateurs internes (équipes de développement). Vous intégrerez également une communauté de pratique Product Management , permettant échanges et montée en compétences collectives. Missions principales1. Pilotage des produits orientés résilience / FinOps Identifier les besoins prioritaires et organiser le backlog selon la valeur apportée (User Stories techniques, Epics). Suivre la construction des services de la plateforme via les rituels d’équipe (Daily Stand-up, backlog refinement, etc.). Assurer la qualité et la fiabilité des livrables techniques. 2. Suivi des performances et indicateurs Être l’interlocuteur privilégié des équipes de développement. Suivre les anomalies et incidents pour garantir des corrections rapides post-déploiement. Co-construire et suivre les indicateurs SLO/SLI, KPI FinOps, métriques DORA et DevEx, OKRs. Proposer des améliorations basées sur les données collectées (SRE, FinOps). 3. Partage de la vision et coordination Participer aux points de suivi avec les parties prenantes (Lead Devs, Architectes, Staff Engineers, Management). Recueillir les besoins des stakeholders pour faire évoluer la plateforme. 4. Contribution à la roadmap stratégique Définir les orientations produit en lien avec la fiabilité, la scalabilité et la maîtrise des coûts. Contribuer à la proposition de valeur et aux critères de succès de la plateforme. 5. Amélioration des pratiques internes Promouvoir l’amélioration continue des pratiques (REX, benchmark des outils SRE/Cloud). Livrables Roadmap produit hiérarchisée et partagée régulièrement. Backlog d’Epics et User Stories techniques prêt à être implémenté. Tableaux de bord KPI / OKRs (SLO/SLI, coûts AWS, métriques DORA et DevEx). Documentation produit (notes de release, guides d’adoption des outils). Animation des rituels Agile avec l’Agile Master.
Offre d'emploi
Ingénieur Réseaux & Sécurité Senior (H/F)
Publiée le
Cybersécurité
F5
Run
3 ans
65k-70k €
430-480 €
Yvelines, France
Télétravail partiel
Ce poste convient à un profil senior , polyvalent, ayant déjà évolué dans des environnements critiques (banque, assurance, industrie, opérateurs…). VOS RESPONSABILITES PRINCIAPLES : 1. RUN / MCO / MCS – Niveau 3 Expert Prise en charge des incidents réseau & sécurité complexes Support avancé aux équipes N1/N2 Analyse & résolution des problèmes de production Participation aux cellules de crise (P1/P2) Astreintes & interventions HNO Coordination avec opérateurs, éditeurs et autres squads 2. Sécurité périmétrique & services exposés Administration & optimisation du WAF (F5, Fortinet, Imperva…) Gestion de la protection anti-DDoS Supervision & gestion du DNS / NTP Suivi et tuning des services exposés en DMZ Contribution au durcissement et à la sécurisation du périmètre Internet 3. Intégration & projets Participation aux POC , études d’architecture et choix techniques Intégration de nouveaux services ou évolutions (WAF, F5, DNS, DDoS…) Validation des solutions techniques proposées par les équipes internes Contribution à la roadmap technique 4. F5 APM / Reverse Proxy / Load Balancing Mise en œuvre et optimisation des policies APM Gestion de l’authentification et de l’accès applicatif Support sur les flux applicatifs exposés 5. Documentation & communication Rédaction et mise à jour des documents opérationnels Reporting régulier au management Transfert de compétences vers N1/N2 Participation aux comités techniques
Offre d'emploi
Data engineer appétence machine learning (H/F)
Publiée le
40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet en tant que Data engineer. Dans le cadre d'un projet de transformation Data ambitieux, nous recherchons un Ingénieur Data pour concevoir et structurer l'architecture d'un Data Warehouse et poser les bases des futurs projets d'intelligence artificielle. Vous interviendrez sur l'ensemble de la chaîne de valeur de la donnée : collecte, structuration, gouvernance, qualité et préparation aux usages prédictifs. Vos missions : 1. Architecture & Infrastructure Data Définir et mettre en œuvre l'architecture du Data Warehouse (on-premise). Concevoir et automatiser les pipelines ETL/ELT à partir des systèmes existants (ERP, TMS, WMS…). Garantir la qualité, la traçabilité et la sécurité des données. Participer à la mise en place d'un catalogue de données pour améliorer la gouvernance. 2. Préparation et Structuration pour l'IA Concevoir des modèles de données adaptés aux futurs cas d'usage IA et prédictifs. Structurer et enrichir les datasets nécessaires aux analyses (prévision ETA, détection d'anomalies…). Collaborer avec les équipes de développement ERP pour intégrer les flux métiers. 3. Collaboration & Culture Data Travailler en étroite collaboration avec les équipes IT, métiers, développement logiciel et direction. Sensibiliser les équipes à la culture data-driven et à l'utilisation des outils analytiques. Être un moteur dans la diffusion des bonnes pratiques Data au sein de l'entreprise. 4. Développement Machine Learning (à moyen terme) Participer à la création de premiers modèles de Machine Learning en lien avec les métiers. Contribuer à leur industrialisation (API, conteneurisation, intégration à l'ERP). Compétences : Excellente maîtrise de Python et SQL. Solide expérience en construction de pipelines de données (ETL/ELT). Connaissance d'un ou plusieurs outils d'orchestration : Airflow, dbt, Talend… Bonnes bases en bases de données relationnelles et cloud : Snowflake, BigQuery, Synapse, PostgreSQL… Compréhension des principes du Machine Learning (pandas, scikit-learn). À l'aise dans un environnement DevOps (Git, CI/CD, Docker, APIs REST).
Offre d'emploi
Mobile AI Engineer - iOS H/F
Publiée le
40k-50k €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte de la mission : Dans le cadre du développement d'une application iOS valorisant des travaux de recherche en IA, le consultant sera chargé d'intégrer et d'optimiser des modèles de Machine Learning pour une exécution directe sur iPhone. Il interviendra sur la conversion de modèles existants (PyTorch, ONNX...) vers CoreML, leur optimisation pour garantir des performances temps réel, ainsi que leur intégration dans les pipelines de l'application. La mission s'effectue au sein d'un environnement collaboratif avec des équipes de recherche internationales, nécessitant une bonne compréhension des enjeux scientifiques et une communication fluide en anglais. Responsabilités : Intégrer, optimiser et adapter des modèles de Machine Learning en utilisant CoreML pour garantir de hautes performances sur appareil iOS ; Convertir des modèles issus de frameworks type PyTorch ou ONNX pour leur déploiement sur les terminaux mobiles tout en assurant la performance, la stabilité et la consommation maîtrisée ; Collaborer étroitement avec les chercheurs et ingénieurs IA afin d'industrialiser les modèles développés en interne et les rendre exploitables dans l'application mobile ; Documenter les processus d'intégration, les étapes d'optimisation et l'ensemble des bonnes pratiques afin de faciliter la maintenance et les évolutions futures.
Mission freelance
Data engineer senior H/F
Publiée le
Google Cloud Platform (GCP)
HFSQL
Python
2 ans
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
Offre d'emploi
System Engineer / Virtualization | Secteur Finance (H/F)
Publiée le
VMware
Paris, France
Télétravail partiel
Missions principales 1. Gestion des incidents et support (1/3 du temps) * Gérer les incidents de niveau 2 et 3 dans tous les domaines techniques. * Documenter les procédures et anciens partenaires de support local de niveau 1. * Fournir un support de niveau 1 aux utilisateurs si nécessaire. * Collaborer avec les prestataires externes pour garantir la qualité du service. 2. Maintenance et opérations quotidiennes (1/3 du temps) * Mettre à jour et gérer les environnements serveurs Windows et Linux. * Superviser et administrer l'infrastructure de stockage (VSAN Ready Node). * Administrer les solutions de visioconférence (Zoom Room). * Maintenir et mettre à jour la documentation technique. * Soutenir la gestion opérationnelle des contrats de maintenance et de support (renouvellements, mises à jour, fin de vie, etc.). 3. Projets techniques et évolution de l'infrastructure (1/3 du temps) * Participer et diriger des projets de transformation et d'évolution de l'infrastructure. * Assurer la continuité de service dans les domaines Workplace/Collaboration et Réseau pendant les périodes de congés de l'équipe. 4. Responsabilités transversales : * * Gestion des fournisseurs * Négociation des contrats * Gestion de projet
Offre d'emploi
Data Engineer / Data Analyst (H/F)
Publiée le
Databricks
6 mois
55k-65k €
450-530 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👌 Dans le cadre du renforcement de son pôle dédié à l’architecture, la valorisation et l’exploitation de la donnée, une grande entreprise nationale du secteur de l’énergie recherche un Data Engineer / Data Analyst (H/F) .🚀 L’objectif : contribuer à la fiabilité, la qualité et l’analyse des données nécessaires à la gestion des réseaux, ainsi qu’au développement de plateformes Data avancées. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Data Engineering 🔸Concevoir, développer et maintenir des pipelines de données robustes et scalables. 🔸Industrialiser les traitements dans un environnement Databricks (Spark, Delta Lake). 🔸Optimiser la qualité, la performance et la disponibilité des données. 🔸Participer à l’architecture des solutions Data, notamment dans un contexte cloud. Data Analysis 🔸Structurer, analyser et valoriser les données issues des réseaux et services. 🔸Construire des Dashboard et indicateurs fiables pour les équipes métiers et techniques. 🔸Contribuer à la mise en place d’une gouvernance efficace des données. Collaboration & Support 🔸Travailler étroitement avec les équipes Architecture, Exploitation et SI. 🔸Participer à la documentation, la standardisation et l’amélioration continue des pratiques Data. 🔸Accompagner les utilisateurs internes dans la compréhension et l’exploitation des datasets.
Offre d'emploi
SysOps Engineer / Expert LDAP (IAM) - H/F
Publiée le
IAM
LDAP
3 ans
53k-63k €
520-600 €
Paris, France
Télétravail partiel
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Cyber. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client stratégique en Gestion des Identités et des Accès (IAM) , nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Infrastructure & DevOps. Contexte de la mission : Notre client est un leader dans le retail gérant un écosystème d'IAM massif, couvrant plus de 120 000 identités (collaborateurs et partenaires) à travers une soixantaine de pays. Vous intégrerez une équipe dynamique de l'IAM, focalisée sur deux projets clés : Accès Simple et Sécurisé au SI : Simplification des accès (SSO) et renforcement de la sécurité (authentification multi-facteurs). Identité Numérique Unique : Centralisation de l'identité et de la gestion des autorisations dans un outil unique. Votre mission principale sera d'endosser la responsabilité technique du produit annuaire LDAP de l'entreprise au sein d'une squad dédiée (composée d'un Product Manager et d'un OPS). Descriptif de la mission : Les objectifs et livrables sont : Maintien en Condition Opérationnelle (MCO) : Assurer le RUN, la disponibilité et la performance du composant LDAP, incluant la résolution des incidents et tickets de Niveau 3 . Industrialisation et Sécurité : Être le garant de la conformité technique et de la sécurité du composant LDAP et de l'API Enterprise Directory . Automatisation et Déploiement : Exploiter et déployer les infrastructures sur des environnements Cloud ( AWS, GCP , etc.) en utilisant des outils d'Infrastructure as Code (IaC) comme Terraform et Puppet/Ansible . Amélioration Continue : Optimiser les solutions par l'analyse des récurrences d'incidents, le monitoring et l'amélioration continue de la solution LDAP (réduction des coûts d'infrastructure, respect des objectifs de disponibilité). Support et Accompagnement : Communiquer et accompagner les équipes projets et les équipes IT qui souhaitent intégrer ou utiliser les outils LDAP et IAM. Documentation : Maintenir une documentation cohérente et à jour.
Mission freelance
DevOps Infrastructure Engineer (H/F)
Publiée le
36 mois
500-600 €
Suresnes, Île-de-France
Je recherche actuellement pour mon client un.e DevOps Infrastructure Engineer (H/F) L'équipe de mon client supporte les outils et l'infrastructure des équipes de développement (embarqué et serveurs) dans leur mise en place de chaines de CI/CD sur une « stack » applicative commune. L'équipe est constituée de 6 collaborateurs sur deux sites (Suresnes et Valence dans la Drôme). Cette intégration continue est constituée de la « stack » suivante : Jira pour le suivi des tickets ; BitBucket comme gestionnaire de dépôts Git et solution de « code review » ; Jenkins pour l'intégration continue ; Artifactory pour les dépôts d'artefacts ; XRay (plugin Jira) pour les tests ; SonarQube/Blackduck pour le SAST et le SCA. La configuration de ces applications (création d'espaces, gestion des permissions, etc.) est réalisée à l'aide d'un outil interne de « self-service » basé sur les concepts GitOps. L'équipe Software Factory Infrastructure est une équipe IT dédiée, en charge de déployer et maintenir cette solution applicative et son infrastructure. Description L'objectif de la mission est de renforcer l'équipe sur les actions courantes qui sont les suivantes : La gestion du cycle de vie des solutions La documentation et le référencement de chaque changement dans les outils Participer au développement continu de la plateforme de Monitoring (PRTG). Contribuer à notre dynamique d'Infrastructure as a Code via Ansible Automation Platform. Participer à l'automatisation des tâches récurrentes. Assurer la MCO de l'ensemble des services (applications et infrastructure). Contribuer aux divers espaces documentaires. Monter en compétence sur les diverses applications afin de pouvoir accompagner fonctionnellement nos utilisateurs. Environnement technique Infrastructure : VMWare, Ansible, Kubernetes, Ubuntu, Fortigate, VMware Advanced Network Load Balancer, Zerto, PostgreSQL, … IT Tooling : ELK, PRTG, Crowd, Landscape, Kibana, … Applications : Bitbucket, Jira, Confluence, Jenkins, Sonarqube, Artifactory, Blackduck Compétences requises Maitrise des concepts DevOps et GitOps Maitrise de l'administration de système Linux Ubuntu Maitrise des environnements de virtualisation (VMWare & Azure) Maitrise des outils d' « Infrastructure as a Code » (Ansible, Terraform) Maitrise du réseau (Fortinet), Load Balancing, VLAN Expérience avérée en mise en œuvre et gestion d'outils de containerisation (K8S) Connaissance des outils de gestion de log (ELK) et de Monitoring (PRTG) Connaissance en base de données (PostgreSQL) Capacité de planifier et mettre en œuvre Capacité à comprendre et analyser avant d'agir Capacité à prendre en charge le support de ses solutions Connaissance de Git et Jenkins Connaissance d'au moins un langage de programmation (Python) Anglais courant à l'oral et à l'écrit Savoir parler chinois (mandarin) est un plus
Mission freelance
Développeur / Data Engineer Observabilité h/f
Publiée le
Azure
DevOps
Grafana
6 mois
400-600 €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre client recherche un Développeur Senior disposant d’une double expertise en développement backend et en ingénierie des données, pour rejoindre son équipe dédiée à l’observabilité. Concevoir, développer et maintenir des services backend (Python, PySpark) et des APIs orientées observabilité Construire et orchestrer des pipelines de données robustes (Airflow, Spark, Python) Garantir la qualité, la sécurité et la gouvernance des flux (tests, lineage, monitoring) Gérer les données via PostgreSQL, ADLS, Blob Storage, ElasticSearch Développer des dashboards et visualisations avancées (Grafana, ELK) Collaborer étroitement avec les équipes produit et développement (Agile/Scrum)
Mission freelance
INGENIEUR RESEAUX f/h
Publiée le
Cisco ACI
DataCenter Infrastructure Management (DCIM)
F5
3 ans
550-630 €
Île-de-France, France
Télétravail partiel
GENIOUS SYSTEMES recherche pour son client un(e) Ingénieur Systèmes Réseaux F/H Contexte : Le client doit déménager ses deux datacenters sur de nouveaux site prochainement. Dans ce cadre, nous recherchons un expert réseau ayant une expérience reconnue et significative sur des projets similaires dans des environnement Cisco ACI. En plus du déménagement physique, ce projet doit permettre la finalisation de la transition depuis une infrastructure Cisco NXOS vers Cisco ACI. Actuellement les deux fabric sont toujours interconnectés (tout le N3 est porté par ACI, mais certains L2 sont propagés sur la fabric NXOS). Ce projet a aussi pour vocation de rationnaliser le nombre d’équipement et de réduire l’empreinte de nos datacenters. Projet principal : Migration de deux datacenters Missions principales : Participer à la définition et à la validation de la stratégie de migration des datacenters en collaboration avec l'architecte réseau et l'architecte système Planifier et exécuter le déménagement de deux datacenters (à 6 mois d'intervalle) Étendre la fabric Cisco ACI sur le nouveau site, incluant l'interconnexion entre les datacenters Gérer le déplacement des APIC Superviser la bascule et la reconstruction des accès Telecom sur les nouveaux sites Transférer les Firewall et load balancer sur les nouveaux sites. Reconfigurer la fabric en adéquation avec les bascules serveurs sur les nouveaux sites Mettre en place et exécuter l'automatisation des tests post-migration Assurer la continuité de l'activité métier 24/7 durant toutes les phases de migration Compétences techniques requises : Expertise en Cisco ACI, incluant la configuration automatisée de la fabric (idéalement via Ansible) Maîtrise des firewalls Palo Alto et Fortinet Expérience avec les load balancers F5 Connaissances et expériences en WDM Compétences en automatisation réseau (scripts, Ansible, API, Python) Maîtrise des outils de supervision réseau (Centréon) Idéalement, connaissance de JIRA Service Management
Offre d'emploi
Data Engineer Senior Scala/Spark (H/F)
Publiée le
Apache Maven
Apache Spark
Azure
10 jours
Saint-Denis, Île-de-France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Pour le compte de l'un de nos clients grands comptes du secteur transport, ous sommes à la rercherche d'un Profil Data Engineer Senior Scala/Spark (H/F) Client : Secteur d’activité Transport Poste : Architecte technique DSM Expérience : plus de 8 ans Localisation : Saint-Denis Durée : Mission très longue
Offre d'emploi
Staff Engineer Python - Telecom - Paris H/F
Publiée le
FastAPI
Python
SQL
12 mois
70k-90k €
550-650 €
Paris, France
Télétravail partiel
Missions Principales Prendre le leadership technique du backend de notre système d'information. Comprendre et optimiser les processus métiers complexes comme la facturation tierce et le raccordement à la fibre. Définir et piloter avec l'équipe l'architecture de notre système distribué. S'engager dans du développement "hands on" avec Python et assurer la qualité et résilience du code. Annexes Initier et renforcer les bonnes pratiques de développement et de mise en production. Proposer et implémenter des méthodes d’exploitation qui permettront aux équipes de développement d’opérer efficacement en production.
Offre d'emploi
DevSecOps Engineer – secteur Telecom – Paris (H/F)
Publiée le
Administration système
Kubernetes
Linux
12 mois
50k-70k €
500-550 €
Paris, France
Télétravail partiel
Principales : - Concevoir, développer et intégrer des solutions de sécurité open source abordant des problématiques telles que l'authentification, le chiffrement et la protection DDoS. - Construire et déployer des briques sécurité en interaction directe avec les équipes Systèmes et Développement. - Participer aux audits de sécurité et à la revue de code pour assurer les meilleures pratiques. Annexes : - Réaliser des revues de design focalisées sur la sécurité. - Collaborer pour détecter et corriger les vulnérabilités. - Maintenir une documentation sécurité conforme aux normes (CNIL, CAC, ANSSI). - Sensibiliser et animer les équipes tech autour des enjeux de sécurité dès la conception.
Mission freelance
Data engineer (H/F)
Publiée le
Dataiku
ELK
1 an
400-460 €
Châtillon, Île-de-France
Télétravail partiel
Infrastructures de données : - Cartographie et documente les sources de données. - Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. - Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. - Structure les bases de données (sémantique, format, etc.). - Contribue à la gestion des référentiels de données. Intégration des données : - Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. - Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. - Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. - Nettoie la donnée (élimination des doublons) et la valide pour une utilisation aval. Animation des communautés : - Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : - Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. - Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables - Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. - Un data lake adapté aux besoins actuels et futurs de l'entreprise. - Une cartographie des données. - Les éléments permettant de garantir la qualité de la donnée.
Offre d'emploi
Data Engineer H/F
Publiée le
Big Data
Data Lake
Spark Streaming
Île-de-France, France
Télétravail partiel
Le Data Engineer est un développeur au sein de l’équipe Engineering Open Big Data du Département Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Ce déparetement est dédié au service de notre client et de ses équipes (Data office, Tribus data, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3635 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois