L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 192 résultats.
Offre d'emploi
Administrateur/Ingénieur Système et Réseau
TDS
Publiée le
Active Directory
Administration linux
Ansible
1 an
38k-60k €
350-550 €
Strasbourg, Grand Est
Descriptif de mission — Administrateur / Ingénieur Systèmes (Build & Run) Secteur : Groupe industriel international spécialisé dans les solutions d’étanchéité, d’isolation et de couverture pour le bâtiment. Effectif : ~10 000 collaborateurs. Dans un contexte de forte croissance externe (plus de 140 projets d’intégration d’usines et sociétés en Europe), nous renforçons notre département Infrastructure Europe afin d’accompagner les activités Build & Run. La mission s’inscrit dans un environnement industriel exigeant, avec des enjeux forts de redondance et haute disponibilité pour des sites de production opérant en 24/7. Missions principales Renfort de l’équipe Systèmes Infrastructure Europe Participation aux activités Build & Run Contribution à la fiabilité et à la disponibilité des infrastructures critiques Accompagnement des intégrations techniques liées aux acquisitions Environnement technique Linux Active Directory Messagerie Idéalement : DNS, Rubrik, Ansible Contexte Environnement international Anglais requis
Mission freelance
Ingénieur système ElasticSearch (H/F)
Insitoo Freelances
Publiée le
Elasticsearch
2 ans
500-800 €
Bruxelles, Bruxelles-Capitale, Belgique
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur système ElasticSearch (H/F) à Bruxelles, Belgique. Contexte : La mission est rattachée au département Sécurité. Responsabilités : Mission opérationnelle relative à la suite logicielle ELK (ElasticSearch, Kibana, Logstash, Elastic Security, Elastic Defend) et corollaires (Apache Kafka); Participer à la conception, la mise en oeuvre et la maintenance des pipelines d’ingestion de logs depuis différentes sources relatives aux différents services IT de sécurité (Firewall, WAF, IAM, IDS/IPS, etc.); Transformer et normaliser les données selon le standard Elastic Common Schema (ECS). Participer à la mise en place et la configuration du module SIEM d’Elastic Security pour la détection et l’analyse d’événements de sécurité sur base de cas d'usages pré-définis; Participer au déploiement et à la configuration, en fonction des cas d'usages et de la modélisation de la menace, d'Elastic Agents sur les serveurs identifiés (principalement Linux, Windows) pour la collecte, la protection des points de terminaison et l'analyse comportementale (Elastic Defend); Participer à la définition des tableaux de bord et des alertes nécessaires pour le monitoring et la supervision; Assister les équipes internes dans la montée en compétence sur les bonnes pratiques d’exploitation et de sécurité Elastic.
Offre d'emploi
Développeur Java H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
37k-39k €
Strasbourg, Grand Est
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région Grand Est accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Au sein d'une société de courtage d'assurance, vous intégrerez une équipe de développeurs et de concepteurs dans une prestation d'assistance technique. Vous participerez à la conception et au développement de solutions applicatives basées sur une architecture micro-services Java. Vos responsabilités : • Analyser les besoins métiers et proposer des solutions adaptées • Concevoir et développer des composants applicatifs en Java / Spring Boot • Réaliser les tests (unitaires, intégration, charge) et garantir la qualité du code • Participer aux phases d'intégration et de mise en production • Assurer la maintenance corrective et évolutive des applications • Maintenir les solutions en conditions opérationnelles • Rédiger et maintenir la documentation technique • Contribuer au respect des standards qualité et des bonnes pratiques • Assurer le support utilisateur et le reporting auprès du chef de projet • Rapporter au chef de projet son activité quotidienne et remonter les alertes sur son périmètre d'intervention L'environnement technique : Java, Spring Boot, framework JS, Broker (RabbitMQ, Kafka, JMS), base de données (SQL Server, MongoDB), jUnit, Git, IntelliJ, Maven, Sonar, Jenkins, Ansible, JIRA, Confluence. Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité, ainsi qu'une ambiance familiale Contrat : en CDI, avec un démarrage selon vos disponibilités (nous acceptons les préavis) Localisation : prestation de client grand compte sur Strasbourg Package rémunération & avantages : • Le salaire : rémunération annuelle brute selon profil et compétences • Les basiques : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation • Nos plus : forfait mobilité douce & Green (vélo/trottinette et covoiturage), prime de cooptation de 1000 € brut, e-shop de matériel informatique à des prix préférentiels (smartphone, tablette, etc.) • Votre carrière : plan de carrière, dispositifs de formation techniques & fonctionnels, passage de certifications, accès illimité à Microsoft Learn • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : v7cxqrnly2
Mission freelance
Backend developer
Codezys
Publiée le
.NET
Azure
Azure Data Factory
6 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Vous rejoindrez une équipe IT internationale, composée d’architectes, de développeurs backend et frontend, d’ingénieurs QA et de spécialistes du run et du monitoring. Ensemble, nous concevons, développons et exploitons notre plateforme IoT cloud sur nos sites en France et en Europe. En tant que Backend Developer, vous intégrerez l’équipe backend basée dans la région lyonnaise. L’équipe bénéficie d’une grande expérience, d’une forte culture de partage des connaissances et d’une curiosité technique. Vous contribuerez au développement de nouvelles fonctionnalités, à l’évolution de la plateforme et à la fiabilité à long terme de nos services IoT. Objectifs et livrables Dans ce rôle, vous devrez : Développer des services backend et des API en C# / .NET en suivant les bonnes pratiques et les standards de qualité pour assurer la robustesse, la sécurité et la performance des solutions apportées. Participer aux rituels d’équipe tels que les estimations, les revues de sprint, les tests transverses et les rétrospectives, afin d’assurer une collaboration efficace et une amélioration continue. Contribuer à l’amélioration de notre plateforme cloud Azure en réalisant la mise à jour des frameworks, la gestion des composants en fin de vie, et en veillant à la conformité sécurité de l’ensemble de la plateforme. Soutenir nos méthodes de travail en adoptant une approche DevOps, Cloud et Agile, afin de garantir la livraison régulière de solutions innovantes et fiables. Explorer de nouvelles technologies et collaborer étroitement avec les architectes pour intégrer les innovations pertinentes dans notre plateforme IoT. Travailler avec un haut degré d’autonomie tout en collaborant avec l’équipe pour affiner les besoins, proposer des solutions adaptées et assurer leur implémentation efficace. Ce poste offre l’opportunité de contribuer au développement d’une plateforme IoT innovante, dans un environnement dynamique et international, en étant acteur de l’évolution technologique et de la fiabilité des services proposés.
Mission freelance
Architecte Sécurité Cloud Azure & Active Directory (H/F)
TDS
Publiée le
Active Directory
Azure
Azure Synapse
1 an
550-750 €
Île-de-France, France
Dans le cadre de la transformation digitale mondiale de l’entreprise, vous rejoignez l’équipe Global Information Cyber Security. Vous intervenez au cœur des enjeux de sécurisation du Cloud, en particulier sur l’écosystème Azure et les plateformes Data / IA. Votre rôle est clé pour définir et garantir une architecture sécurisée, scalable et résiliente, en accompagnant les projets stratégiques du Groupe. Vos missions principales En tant qu’Architecte Sécurité Cloud, vous aurez pour responsabilités : D'agir en tant qu’expert en sécurité des données (Data Security Subject Matter Expert) sur l’architecture, la conception et la configuration des solutions Définir des architectures de données sécurisées, scalables et résilientes (Cloud & On-Premise) Réaliser des évaluations de sécurité des architectures et services Azure Contribuer à la définition des bonnes pratiques, de la gouvernance et des processus de sécurité Accompagner les entités métiers et IT dans le déploiement de solutions sécurisées Supporter les régions et Business Units dans la migration vers le Cloud public Évaluer les risques de sécurité et définir les mesures adaptées avant mise en production Analyser les demandes métiers/IT impactant la sécurité et proposer des plans de remédiation Définir les exigences de sécurité pour les projets IT, notamment : Intégration cloud Plateformes Data / IA Identités digitales Examiner les services Azure et formuler des exigences conformes aux standards IS&T Rédiger et déployer politiques, standards et guides de sécurité Piloter des projets de sécurité Cloud : Cadrage des besoins Sélection de solutions Implémentation Négociation fournisseurs Compétences techniques : Solide background technique : réseau, systèmes, bases de données, applications Bonne connaissance des environnements Cloud Azure Connaissance des services Data Azure appréciée : Azure SQL, Synapse, Data Lake, Power BI, etc. Connaissance des plateformes IA Azure appréciée : Azure OpenAI, Databricks, Azure ML, Cognitive Services, etc. Sécurité & gouvernance : Maîtrise des méthodologies d’analyse de risque (ISO 27005, EBIOS…) Connaissance des standards de sécurité de l’information Certifications ou formations Cloud (AZ-500, AZ-30x, SANS SEC545) et sécurité de l’information (ISO 27001, CISSP, CISM) sont appréciées
Mission freelance
Consultant(e) Data Governance
Focustribes
Publiée le
SAP
6 mois
550-750 €
Suisse
Dans le cadre d’un programme de transformation Data à l’échelle internationale , un grand groupe du secteur industriel/aéronautique renforce sa gouvernance des données dans un environnement multi-sites et fortement intégré ( SAP S/4HANA , Salesforce , systèmes historiques), reposant sur un écosystème Microsoft Azure . Une plateforme data permet déjà l’ingestion et la consolidation des données, avec l’intégration de sources externes autoritaires pour améliorer la qualité et la déduplication . La priorité actuelle n’est pas la migration (déjà prise en charge par un partenaire dédié), mais l’ industrialisation du Master Data Management (MDM) et la structuration d’une gouvernance des référentiels robuste et scalable , notamment sur les domaines suivants : Business Partners (clients / fournisseurs) Adresses Matériels / Assets Autres data domains critiques L’enjeu principal consiste à passer d’une gestion ad hoc à un dispositif maîtrisé, outillé et pérenne . Le/la consultant(e) interviendra en lien direct avec le sponsor stratégique du programme et les référents internes MDM , à l’interface entre IT, Data et Métiers . Missions Assumer un rôle de référent(e) Data Governance / MDM au sein du programme de transformation. Gouvernance & cadrage Structurer et animer la gouvernance MDM ( Data Council , Data Owners , Data Stewards , RACI ). Définir la cartographie des data domains et clarifier les responsabilités associées. Formaliser le cadre de référence : glossaire , règles de gestion , standards , niveaux de criticité , KPIs data quality . Assessment & recommandations Conduire un diagnostic de maturité par domaine ( qualité, ownership, process, contrôles, outillage, adoption ). Analyser les flux inter-systèmes et les irritants métiers/IT . Produire un plan d’action structuré : priorités , quick wins , roadmap incrémentale (90 jours / 6 mois / 12 mois). Expertise fonctionnelle MDM (focus Business Partner / Adresses) Clarifier le modèle cible pour la gestion des Business Partners et des adresses (légal vs usage, multi-adresses, règles d’unicité). Recommander les bonnes pratiques référentielles dans un environnement SAP S/4HANA interfacé avec CRM et data platform . Sécuriser les workflows de création/modification , les validations , la traçabilité et les règles anti-doublons . Arbitrer la notion de “source of truth” entre ERP , CRM et sources externes . Déploiement & conduite du changement Définir une stratégie de pilotes prioritaires . Structurer une démarche progressive et orientée valeur . Accompagner la montée en compétences interne (transfert, templates, playbook MDM). Structurer la communication , la formation et l’ adoption des nouvelles pratiques.
Mission freelance
Métrologue spécialiste des réseaux informatiques H/F
Cheops Technology
Publiée le
Dynatrace
12 mois
400 €
Nantes, Pays de la Loire
Dans un contexte d’infrastructures critiques et de systèmes complexes et interconnectés, la/le métrologue spécialiste des réseaux informatiques a en charge : La mesure, l’analyse et la fiabilité des performances réseau . Concevoir, déployer et maintenir les dispositifs de métrologie réseau avec des technologies leader sur le marché. Administrer et exploiter des outils de métrologie pour l’analyse de trafic et performance réseau. Mettre en œuvre et exploiter les solutions d’ observabilité telles que Dynatrace, avec intégration d’ Intelligence Artificielle . Garantir la qualité, la fiabilité et la traçabilité des données de mesure . Produire des indicateurs de performance et analyses pertinentes : Sur les incidents, en contribuant à la résolution et compréhension des incidents majeurs, pannes complexes, ou baisses de performance. Dans les projets, au travers notamment de capacity plannings , afin d’anticiper et de vérifier la bonne adéquation entre les besoins et les architectures réseaux prévues. Participer à l’ amélioration continue des architectures réseau du Groupe .
Mission freelance
Machine Learning Engineer – IA & MLOps
ESENCA
Publiée le
Github
LangChain
Python
1 an
Lille, Hauts-de-France
Contexte du poste Dans un environnement technologique en forte croissance, vous intervenez sur le développement et l’industrialisation de solutions d’Intelligence Artificielle. Les produits évoluent rapidement et nécessitent une forte capacité d’adaptation, de structuration et d’industrialisation des modèles. Objectif Concevoir, développer et déployer des solutions AI/ML robustes et scalables, tout en assurant leur intégration dans une chaîne CI/CD moderne et une plateforme MLOps structurée. Missions principalesDéveloppement & Industrialisation IA Concevoir et développer des modèles de Machine Learning et solutions basées sur les LLM Implémenter des composants AI/ML (fonctions, classes, tests automatisés) Participer à la conception d’architectures orientées Data & IA Assurer le passage du prototype à la production MLOps & Data Engineering Construire et maintenir les pipelines d’entraînement, d’évaluation et de déploiement Automatiser les workflows via Github Actions Mettre en œuvre les bonnes pratiques CI/CD et DevOps Assurer le monitoring, la performance et la scalabilité des modèles Qualité & Documentation Garantir la qualité du code (tests unitaires, intégration) Réaliser des revues de code Documenter les développements et configurations (Github / Gitbook) Assurer le suivi du cycle de vie complet des modèles (build & run) Environnement technique Python (impératif), Github Actions (impératif), LangChain (souhaitable), GCP, Kubernetes, Kafka, Terraform, bases SQL/NoSQL.
Mission freelance
DATA ANALYST - Expert (>10 ans) F/H
SMARTPOINT
Publiée le
Apache Spark
Databricks
DataGalaxy
24 mois
550-580 €
Île-de-France, France
Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts du DataLab. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertise en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
Mission freelance
Lead Developer Java / VueJS
ESENCA
Publiée le
Google Cloud Platform (GCP)
IA
Java
1 an
Lille, Hauts-de-France
Description de la mission Le Lead Developer intervient sur la conception et le développement de produits digitaux critiques, tout en diffusant une culture d’excellence technique au sein de l’équipe. Missions principales1. Leadership technique & architecture Concevoir et garantir une architecture modulaire (Spring Modulith) Assurer l’isolation des modules et la cohérence des APIs internes Encadrer les choix techniques et accompagner les développeurs 2. Développement backend & frontend Développer des services backend robustes (Java, Spring, Hibernate) Concevoir des interfaces performantes en VueJS Gérer des modèles de données complexes (PostgreSQL, JSONB) 3. Performance & scalabilité Mettre en place et optimiser des mécanismes de cache distribué (Redis) Gérer les problématiques de sérialisation et d’invalidation Assurer la performance globale des applications 4. Qualité & tests Mettre en œuvre des pratiques TDD/BDD Développer des tests unitaires et d’intégration (TestContainers, Wiremock) Garantir la conformité des APIs (OpenAPI) 5. Innovation & IA Intégrer des solutions d’IA générative (Spring AI, Vertex AI) Concevoir des mécanismes de génération de règles métier et d’analyse Participer à l’ingénierie de prompts et à l’intégration applicative Compétences techniques Java (Spring / Spring Modulith) – Expert – Impératif VueJS – Confirmé – Impératif Google Cloud Platform (GCP) – Confirmé – Souhaitable IA Générative (Spring AI, Vertex AI) – Confirmé – Souhaitable Connaissances linguistiques Anglais professionnel – Impératif
Offre d'emploi
DATA ANALYST- Trade Finance
AVA2I
Publiée le
SQL
Xray
1 an
Île-de-France, France
Compétences fonctionnelles • Expérience en banque d'investissement et Trade finance indispensable • Capacité à appréhender les principes d'architecture et problématiques IT • Expérience en implémentation Agile • Connaissance des tests automatiques • Connaissances des portails Trade Finance (Swiftnet, Vialink, Konsole, etc.) Compétences comportementales • Travail en équipe et sens du service • Communication aisée à l'oral comme à l'écrit en environnement multiculturel • Capacité d'analyse et de synthèse • Organisation, dynamisme et rigueur Langues • Anglais opérationnel (usage régulier avec des équipes anglophones) • Français courant IT : SQL, si outils d'automatisation de tests comme selenium ou xray ou autre serait un plus
Offre d'emploi
Consultant Systèmes d'Informations
CAT-AMANIA
Publiée le
Architecture
Master Data Management (MDM)
6 mois
40k-45k €
470-600 €
Tours, Centre-Val de Loire
Dans le cadre du cadrage pour un projet stratégique "Référentiel des Personnes Protégées". Ce projet vise à établir une vision unifiée et fiable des données clés au sein de l'organisation. 2. Contexte et Objectifs du Projet " Référentiel des Personnes Protégées " - Arbitrer la cible : Définir et valider la solution cible pour la mise en place d'un référentiel de données unifié. - Cadrer la solution : Élaborer une feuille de route détaillée pour l'implémentation de cette solution. - Chantier RPP : Intégrer les enjeux liés au Référentiel Personnes Physiques (RPP) dans la démarche. Le cadrage est une étape cruciale pour assurer l'alignement stratégique, la faisabilité technique et la pertinence économique du projet.
Offre d'emploi
Chef de Projet Data Gouvernance H.F
NSI France
Publiée le
Azure
DataGalaxy
Gouvernance, gestion des risques et conformité (GRC)
30 jours
Châtillon, Île-de-France
Description de l'offre d'emploi Acteur majeur dans le domaine IT, depuis notre création en 1993, nous n'avons cessé de croître et d'évoluer. Avec une équipe dévouée de près de 1.400 collaborateurs répartis sur plusieurs sites en Belgique, au Luxembourg, en France et au Canada, NSI a suivi une trajectoire exceptionnelle. Notre entreprise est à la pointe de la révolution numérique, offrant une gamme complète de services IT, de l'analyse au développement de logiciels, en passant par l'architecture et la gouvernance IT. Votre rôle Le/la consultant(e) travaillera pour un client de NSI France basé en IDF dans le secteur de l’agroalimentaire avec de gros enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. Descriptif des missions Contribuer à la mise en place et au pilotage de la gouvernance des données (qualité, fiabilité, cohérence) Identifier, structurer et documenter les données et indicateurs critiques en lien avec les métiers Définir et suivre les indicateurs de qualité des données et mettre en œuvre des actions d’amélioration continue Concevoir des tableaux de bord de pilotage (qualité, usages, performance data) Détecter les anomalies et formuler des recommandations structurantes en matière de data gouvernance Collaborer avec les équipes métiers, produits et IT pour intégrer la gouvernance dès la conception Animer et accompagner la communauté des Data Analysts autour des bonnes pratiques data
Mission freelance
Développement (Power Apps, Dynamics 365, Azure,)
Codezys
Publiée le
.NET
Azure
Azure Data Factory
12 mois
Paris, France
Contexte de la mission Dans le cadre de la prestation de Conception-Développement sur le périmètre des actifs réels, notre objectif est de garantir la performance, la fiabilité et l'évolution continue des applications concernées. La mission inclut plusieurs volets essentiels afin d'assurer une gestion optimale des actifs réels et de leurs flux associés. Les différentes missions confiées sont : Participation aux développements conformément à la roadmap applicative Maintenance corrective et évolutive des applications et des flux entrants/sortants Support aux utilisateurs intervenant sur ce périmètre Fiabilisation technique des systèmes et processus Objectifs et livrables Les tâches et livrables à réaliser dans le cadre de cette mission comprennent : Analyse des demandes utilisateur et évaluation de leurs impacts techniques et fonctionnels Développement des évolutions et corrections nécessaires Conduite de tests unitaires pour valider les changements réalisés Support technique durant les phases d'homologation, en assurant la disponibilité et la cohérence des solutions Réalisation de diagnostics en cas d'incidents en production et mise en œuvre d'actions correctives adaptées Support aux utilisateurs pour le bon fonctionnement des applications et des flux Gestion des mises en production en respectant les processus et calendriers établis
Mission freelance
Senior Data Platform Engineer – Databricks / Snowflake (H/F)
TEOLIA CONSULTING
Publiée le
Azure Data Factory
CI/CD
Databricks
6 mois
550-560 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data Engineering / Data Platform au sein d’un environnement international exigeant, nous recherchons un Senior Data Platform Engineer expert Databricks / Snowflake. Vous interviendrez sur la structuration, l’optimisation et l’industrialisation d’une plateforme data cloud moderne, au cœur d’enjeux stratégiques liés à la qualité, la performance et la fiabilité des données. Vos missions principales : Conception et optimisation de pipelines data sous Azure Data Factory et Databricks Modélisation, optimisation et sécurisation d’environnements Snowflake Structuration de modèles de données complexes (multi-sources, multi-réglementations) Industrialisation des workflows via GitHub Enterprise Cloud (CI/CD) Mise en place de bonnes pratiques de qualité et monitoring des données Contribution aux choix d’architecture et à l’amélioration continue de la Data Platform Collaboration étroite avec les équipes techniques et métiers Vous évoluerez dans un environnement à fort niveau d’exigence technique et organisationnelle, où la robustesse, la performance et la rigueur sont essentielles.
Offre d'emploi
Tech Lead Python- IAGen (H/F)
1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes
12 mois
Paris, France
Contexte : Dans le cadre de l’accélération de ses capacités en IA, notre client renforce son architecture autour de l’ IA générative . Projet avec des enjeux forts autour de : RAG (Retrieval-Augmented Generation) industrialisation de modèles GenAI scalabilité des solutions IA Missions : Piloter les projets de bout en bout (conception → prod) Driver les sprints (organisation, tickets, priorisation) Encadrer et faire monter en compétence les développeurs Définir et porter l’architecture backend IA Contribuer aux développements Python complexes Garantir les bonnes pratiques (code, perf, scalabilité) Compétences techniques Python (expert) IA générative (expérience industrielle obligatoire ) AWS (Lambda, Bedrock, SageMaker…) RAG / LLM / NLP Architecture backend & systèmes scalables
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6192 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois