L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 880 résultats.
Offre d'emploi
Software Engineer Python - Editeur de logiciel - CDI F/H - Informatique industrielle (H/F)
█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
Ansible
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
ARCHITECTE PORTAIL IA
GROUPE ALLIANCE
Publiée le
Docker
FastAPI
Github
80k-85k €
75001, Paris, Île-de-France
ACCROCHE SI TU SAIS QUE L’INTELLIGENCE NE SE LIMITE PAS QU’À L’HUMAIN, CETTE ANNONCE EST FAITE POUR TOI... CE QUE TU RECHERCHES : Concevoir et structurer des architectures IA robustes Travailler sur des projets d’envergure en intelligence artificielle Relever des défis techniques dans des environnements complexes et innovants Tu veux être au cœur des décisions stratégiques et façonner l’IA de demain Rejoins une équipe où ton expertise en architecture IA sera essentielle. Au sein d’un acteur majeur du secteur Protection Sociale, tu participeras aux eévolutions fonctionnelles à apporter à l'architecture technique de la partie Front du portail IA permettant :- un accès sécurisé au catalogue d’assistant IA existant en fonction du profil de l’utilisateur- un parcours d’accueil pour les nouveaux utilisateurs ainsi qu’un accès à des modules de formation de type webinaire- un accès à une FAQTu conçois les évolutions fonctionnelles à apporter à l'architecture technique de la partie Back du portail IA permettant :- la création et l'exposition de nouveaux assistants IA par les utilisateurs avec contrôles d'accès- la maintenance et l'évolution des mécanismes de supervision et de suivi de consommation d'IA par les utilisateurs- la maintenance et l'évolution des mécanismes d'exposition des assistants IA en API pour utilisation par les applicatifs métiersTu conçois les évolutions fonctionnelles à apporter à l'architecture technique des mécanismes de RAG de la plateforme :- en concevant les architectures possibles de pipelines d'ingestions optimisés en fonction du type de documents en entrée et de leur volumétrie- en concevant et aidant à maintenir les mécanismes de la plateforme permettant de tracer la qualité des données ingérées- en concevant et aidant à maintenir les mécanismes de contrôles du profil utilisateur et des droits d’accès aux informations restituées par un assistant ou un agent IA- en participant à la définition des besoins en solutions de bases de connaissances spécialisées, externes ou intégrées au portail IA, en définissant le protocole et les mécanismes d'ingestion des mises à jour au fil de l'eau ou à intervalles réguliers.Tu définis ou fais évoluer la chaîne CI/CD permettant de livrer les évolutions du portail IA dans ses quatres environnements (en lien avec les autres équipes en charge de cette problématique à la DSI)- en assurant le paramétrage et la mise en oeuvre de la chaîne sur le cloud AZURE dans une logique DEVOPS- en maintenant à jour la documentation- en sécurisant les mécanismes de tests permettant de valider le déploiement d'une version ou pour garantir le retour arrière en cas de défaut constaté : Définition des architectures IA, tu piloteras Sélection des frameworks et technologies adaptées, tu assureras Déploiement et industrialisation des modèles IA, tu superviseras Optimisation des performances et gestion des ressources, tu garantiras Sécurisation des infrastructures IA, tu renforceras Veille technologique et anticipation des évolutions, tu effectueras Collaboration avec les équipes Data, DevOps et métier, tu animeras QUI TU ES : Diplômé(e) en informatique, intelligence artificielle ou équivalent Tu justifies d’une expérience de 10ans minimum en conception et déploiement d’architectures IA Maîtrise des frameworks IA : Microsoft Azure IA Expertise en cloud computing : SFEIR RAISE (RAG/GenAI), Visual Studio Code avec Github COPILOT, MS OFFICE Copilot, Python, Langchain, Docker + Kubernetes, LiteLLM + LLM AI Foundry, React, Typescript, TanStack, Microsoft AZURE AI Foundry, LangGraph, RAGAS, LangFuse, FastAPI + Celery/Redis, Serveurs MCP, Pipelines CI/CD (GitHub/Azure DevOps), Docker + Terraform, Microsoft AZURE API Management, Microsoft AZURE AI Foundry Maîtrise des problématiques de MLOps et d’industrialisation des modèles IA AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Visionnaire, tu anticipes les évolutions de l’IA et leurs impacts Méthodique, tu structures et documentes tes architectures avec rigueur Pragmatique, tu conçois des solutions adaptées aux besoins métiers Communicant(e), tu sais vulgariser des concepts complexes Curieux(se), tu es en veille permanente sur les dernières avancées IA Collaboratif(ve), tu travailles efficacement avec les équipes Data, DevOps et métier Orienté(e) performance, tu optimises chaque modèle pour maximiser son impact
Mission freelance
Architecte DATA
Codezys
Publiée le
Python
SQL
Teradata
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d'une phase de transformation visant à adopter un modèle axé sur les données (Data Centric) et de définition d'une stratégie Data, le client met en œuvre une nouvelle plateforme Data Régime pour répondre à ses besoins. Un programme dédié à cette plateforme a été lancé fin 2025. Au premier trimestre 2026, des Proofs of Concept (POC) sont en cours afin de sélectionner la future plateforme Data. Le client recherche une prestation en architecture Data pour l’accompagner dans la définition de l’architecture cible et la mise en œuvre de cette nouvelle plateforme au sein d’un écosystème existant. Objectifs et livrables Le consultant intervenant aura pour mission de définir, concevoir et accompagner la construction de l’architecture cible Data. Ses principales responsabilités seront : Définir l’architecture cible Data : Concevoir une architecture alignée avec la stratégie globale Data et les principes Data-Centric, en déterminant les patterns d’intégration ainsi que les couches fonctionnelles de la plateforme (inclusion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : Élaborer l’architecture technique globale en intégrant l’écosystème existant (tels que Teradata, Hadoop) et en tenant compte des stratégies d’évolution (cloud ou on-premise, gouvernance, scalabilité). Proposer une trajectoire d’évolution permettant la transition vers cette nouvelle plateforme, incluant stratégie de migration, coexistence et déploiement par phases. Modélisation et harmonisation des données : Définir des modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossaire). Établir les principes de modélisation adaptés aux usages, qu'ils soient analytiques, opérationnels ou liés à des data products. Data Products & accompagnement métier : Soutenir les équipes métiers dans la conception et la structuration des data products, en veillant à leur cohérence avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : Élaborer les standards d’intégration, de transformation, de stockage et d’exposition des données. Formaliser les bonnes pratiques concernant les outils de l’écosystème, notamment ceux liés à l’ingestion, à la qualité, à l’orchestration, au catalogage et à la gouvernance.
Mission freelance
ML Platform Senior DevOps Engineer
ARGANA CONSULTING CORP LLP
Publiée le
AWS Cloud
Cloud
Docker
6 mois
400 €
Paris, France
Nous recherchons un(e) DevOps Engineer Senior pour intervenir au sein d’une équipe ML Platform & ML Lab, dans un environnement technique avancé orienté Machine Learning et infrastructure cloud à grande échelle. 🎯 Votre rôle 🔵 Configuration et gestion de l’infrastructure cloud (Lambda) pour l’accès GPU des équipes ML 🔵 Mise en place de bonnes pratiques FinOps et protection contre les erreurs critiques 🔵 Optimisation des images Docker pour réduire les temps de cold start 🔵 Mise en place et maintien des systèmes de monitoring des entraînements de modèles 🔵 Contribution aux projets ML Platform sur AWS (CI/CD, tooling, infrastructure) 🔵 Automatisation des process et amélioration continue des workflows 🔵 Renforcement de la sécurité (audit, vulnérabilités, gestion des risques) 🚀 Votre impact 🔵 Améliorer la productivité des équipes ML 🔵 Garantir la robustesse et la scalabilité des environnements de training 🔵 Accélérer les workflows via automation et CI/CD 🔵 Renforcer la fiabilité et la sécurité des infrastructures cloud 🛠️ Stack & environnement 🔵 AWS 🔵 Terraform 🔵 Docker (optimisation d’images large scale) 🔵 GitLab CI / Jenkins 🔵 Linux / UNIX 🔵 Monitoring & observability 🔵 Environnement ML / GPU / cloud (Lambda) 📌 Informations complémentaires 🔵 Mission freelance 🔵 Hybride ou remote selon organisation 🔵 Mission longue durée
Offre d'emploi
Data Engineer / Data Ops (H/F)
QODEXIA
Publiée le
Apache Spark
AWS Cloud
Azure
10 jours
46k-48k €
430-450 €
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Contexte Notre client est un groupe qui constitue un majeur de la transition énergétique, engagé à atteindre la neutralité carbone d’ici 2045. Présent dans plus de 30 pays et fort de plus de 90000 collaborateurs, le Groupe intervient sur l’ensemble de la chaîne de valeur de l’énergie : production renouvelable, infrastructures gazières et services énergétiques. Le COE Data Groupe accompagne les entités du Groupe dans l’industrialisation de leurs usages data, en s’appuyant sur un écosystème moderne construit autour de Databricks. Dans ce cadre, le poste de Data Engineer / Data Ops contribue à concevoir, optimiser et exploiter des pipelines et architectures data fiables, scalables et alignés avec les besoins métiers.
Mission freelance
[LFR] Expertise technique et fonctionnel Facturation entreprise à Orléans - 1408
ISUPPLIER
Publiée le
10 mois
250-400 €
Orléans, Centre-Val de Loire
Dans le cadre d'un gain d'un RFP au forfait (Orange, Cluster facturation). Nous avons besoin d'un profil technico-fonctionnel qui aura une responsabilité de référent pour un projet Orange. Il doit prendre en compte toutes les phases d'un projet en cycle en V/agile ( etude / dev/recette/recette métier/ MEP/ Soutien) et être un soutien à toute l'équipe en place Sécurisation du périmètre à travers les SLA et la satisfaction client. Docker Swarm : Expert Spring Batch Expert API REST Expert ANGULAR Expert cft Expert Spring Boot Expert JAVA Expert one-automation Expert
Offre d'emploi
Chef de projet
Management Square
Publiée le
AWS Cloud
Linux
Microsoft Windows
40k-47k €
Île-de-France, France
Nous sommes à la recherche d'un(e) : Chef de projet - Enregistrement, qualification technique et suivi de la résolution des incidents - Rédaction et suivi des demandes d'évolutions (technique ou métier) - Coordination des actions entre exploitant / TMA / fournisseurs / métier - Rédaction des tickets de change technique et fonctionnels - Qualification des évolutions, vérification de bon fonctionnement , suivi du processus de MEP - Coordination des actions internes (métiers / achats / exploitant / architectes fonctionnels et techniques) et externes (fournisseurs / TMA) - Mise à jour des besoins métier et NFR - Validation des spécifications fonctionnelles détaillées - Prérecette et pilotage de la recette avec les métiers
Offre d'emploi
Business Analyst H/F
TOHTEM IT
Publiée le
40k-45k €
Toulouse, Occitanie
Ta mission : Dans le cadre de la migration vers le cloud d’un outil majeur de gestion de la chaîne comptable, tu interviendras en tant que Business Analyst pour la réécriture d’une application On premise actuellement développée en Access, vers une solution web moderne. Ce que tu feras : Comprendre les processus comptables et les besoins métiers. Travailler sur l’intégration avec des systèmes ERP/Comptabilité et/ou des flux de données (ETL, interfaces, API). Rédiger les spécifications générales et les cahiers de recette. Participer aux projets en méthodologie Agile et aux ateliers collaboratifs avec IT et métiers. Apporter ton expertise sur les bases de données relationnelles (SQL, schéma relationnel, normalisation). Contribuer à la compréhension des technologies web (Frontend/Backend, REST/GraphQL, API, sécurité web). Créer et suivre des scénarios de tests fonctionnels et critères d’acceptation. Les outils que tu utiliseras : Gestion des exigences et traçabilité : Jira, Confluence, Excel avancé Bases de données : SQL Server, MySQL, Oracle (on-premise) Tests fonctionnels et d’acceptation sur l’infrastructure interne Tes qualités : Autonomie et sens de l’organisation Communication claire : capacité à expliquer des concepts comptables et techniques à des interlocuteurs non techniques Rédaction de documents et guides utilisateurs accessibles et compréhensibles Esprit collaboratif : animation d’ateliers et workshops avec différents profils
Offre d'emploi
DevOps – Kubernetes / AWS - Lyon
Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes
40k-45k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Offre d'emploi
Ingénieur DevOps AWS - Région PACA - Habilitable
Groupe Aptenia
Publiée le
AWS Cloud
Datadog
Gitlab
6 mois
Provence-Alpes-Côte d'Azur, France
Nous recherchons un Ingénieur DevOps Cloud orienté AWS pour intervenir sur le développement et l’évolution d’une plateforme interne utilisée par des équipes métiers et techniques . Vous participerez à la conception et à l’optimisation des infrastructures cloud, à l’automatisation des environnements et au développement d’outils associés. L’environnement technique inclut AWS, Terraform, Datadog, Python et Vue.js . Une sensibilité aux sujets liés à l’IA est appréciée. Le poste requiert un bon esprit collaboratif , une capacité à comprendre les enjeux métier et une forte curiosité technique.
Mission freelance
Ingénieur réseau WAN / SDWAN (H/F) - 31
Mindquest
Publiée le
Python
Routage IP
Réseaux
3 mois
Toulouse, Occitanie
Nous recherchons un expert réseau WAN/SDWAN disposant d’une solide expertise technique et d’une forte capacité de troubleshooting niveau 3, pour intervenir sur des environnements critiques du Département Réseau Agences. Vous avez une expérience réussie dans des fonctions similaires réalisées chez un opérateur télécom, un intégrateur ou dans un environnement grand compte. Mission : Vos missions seront les suivantes : - Intervention sur du SD-WAN Fortinet - Intervention sur du Versa Networks - Connaissance des backbones opérateurs - Intégration des architectures réseaux WAN/SDWAN - Troubleshoot niveau 3 des solutions - Automatiser le build et le run via du développement Python Contexte technique : Double éditeurs sdwan Forti, Versa sur + de 6000 sites Collecte MPLS, Internet Automatisation indispensable du parc Python Routage dynamique BGP Très fortes compétences en Routing BGP, Fortinet SDWAN
Offre d'emploi
QA Automaticien - 7 ans XP
Espritek
Publiée le
Xray
3 ans
40k-45k €
400-500 €
Neuilly-sur-Seine, Île-de-France
Dans le cadre du développement de ses applications de gestion du patrimoine, de gestion de l’offre publicitaire et de gestion des services aux villes, JCDecaux recherche une prestation de testeur Agile / automaticien. Il/elle aura pour mission : • de définir, en collaboration avec le Product Owner et les développeurs les tests des US (BDD, Gherkin) • de maintenir et d’enrichir les tests automatisés (Selenium, JUnit, RestAssured, Cucumber) • de contribuer à l’amélioration du framework de test • de s’assurer de la bonne exécution régulière des tests automatisés • de définir et mettre à jour les plans de tests (TNRs) pour chaque sprint • d’exécuter les tests identifiés et d’analyser les résultats d’exécution (Jira-Xray & Jenkins) • de maintenir le référentiel de tests (Jira-Xray) sur la base des livrables projets (UserStories, Functionnal Rules, Acceptance Tests, …) • d’enregistrer les défauts détectés dans notre outil de bug tracking (Jira Agile) • de participer à la création et à la maintenance des données de test • d’être force de proposition dans le cadre du processus d’amélioration continue. • enrichir et maintenir la documentation sur les tests dans Confluence (Process de tests, documentation technique etc.) Il / elle évolue dans un environnement agile (Scrum de 3 semaines et intégration continue) et participe aux différentes cérémonies mises en place. Il / elle montre une réelle appétence pour le contrôle qualité et les aspects techniques de ce domaine (certification ISTQB appréciée). Le consultant(e) devra faire preuve d’intérêt pour le fonctionnel des applications testées et appréhender des règles de gestion complexes. Environnement technique : • PostgreSQL 14 • Java 11 – 21, Spring boot, Angular 13 - 19 • API Rest, Kafka • Jenkins Maven, Sonar • Selenium 4, Cucumber, RestAssured • Jira, Confluence, XRay Compétences techniques requises • Atlassian XRay ou équivalent – Maîtrise • Selenium WebDriver (JUnit ou Test NG) – Maîtrise • Java / Maven / Git – Maîtrise • API Rest – Maîtrise • Langage SQL – Connaissances / Autonomie • Au moins un gestionnaire d’anomalies (Jira, etc…) – Connaissances / Autonomie Compétences appréciées : • Jenkins – Connaissances / Autonomie • Selenium Grid / Jmeter • Kafka & Elasticsearch Qualités humaines recherchées : Le / la consultant(e) devra être rigoureux, organisé, synthétique et efficace. Il/elle devra également faire preuve d’excellentes qualités relationnelles et d’aptitudes à communiquer. Localisation du poste : • Neuilly (Metro Pont de Neuilly). 2 jours sur site OBLIGATOIRE et 3 jours de télétravail Date de démarrage souhaitée : • ASAP
Offre d'emploi
Senior Engineer Snowflake
VISEO
Publiée le
Cloud
DBT
Snowflake
12 mois
Boulogne-Billancourt, Île-de-France
En tant que Senior Ingénieur Snowflake, vous serez responsable de : Conception & Architecture Concevoir, modéliser et optimiser les architectures Data Warehouse / Data Lakehouse sous Snowflake. Définir la stratégie d’ingestion, de transformation et de stockage des données. Concevoir des pipelines data performants et sécurisés. Développement & Industrialisation Développer des flux de données (ETL/ELT) avec Snowflake, SQL, Python et outils d’intégration (DBT, Fivetran, Airflow…). Optimiser les performances des warehouses, requêtes SQL et processus de calcul. Mettre en place des environnements CI/CD pour les projets data. Sécurité & Gouvernance Implémenter les bonnes pratiques de sécurité : gestion des rôles, RBAC, chiffrement, monitoring, FinOps. Gérer la qualité des données, le catalogage et la gouvernance. Support & Collaboration Collaborer avec les équipes Data, IT, BI et Métier pour comprendre les besoins. Fournir support, documentation et bonnes pratiques. Participer à la veille technologique autour de la Data & du Cloud. Compétences techniques recherchées Indispensables Maîtrise de Snowflake (warehouses, compute, storage, performance, sécurité). Excellente maîtrise du SQL avancé. Expérience sur un cloud public (AWS, Azure ou GCP). Connaissance des architectures Data (DWH, Lakehouse, MPP, data pipelines). Appréciées DBT, Airflow, Fivetran, Matillion ou équivalents. Python pour la manipulation et l’automatisation. Outils BI (Power BI, Tableau, Looker…). Pratiques DevOps : Git, CI/CD, Terraform. Connaissances en IA / Machine Learning (bonus).
Mission freelance
Developpeur GO Sophia Antipolis/0
WorldWide People
Publiée le
Go (langage)
6 mois
360-370 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Developpeur GO Sophia Antipolis Profil recherché - 5 ans d’expérience minimum - Maîtrise du développement Go - Bonne connaissance Linux et environnements de production - Autonomie, rigueur, esprit d’équip Dans le cadre d’un projet stratégique autour d’une plateforme de stockage interne basée sur des technologies de type objet (S3), nous recherchons un Développeur Back-End Go expérimenté pour intervenir au sein d’une équipe agile. Missions principales - Analyse et développement des user stories en Go - Participation aux cérémonies agiles (Scrum) - Mise en place de tests unitaires et d’intégration - Automatisation CI/CD - Suivi de la qualité de service (logs, métriques, dashboards) - Support technique et résolution d’incidents en production Environnement technique - Langage : Go - OS : Linux - CI/CD : GitLab - DevOps : Ansible, Bash - Observabilité : ELK, Grafana, InfluxDB, VictoriaMetrics - Méthodologie : Agile / Scrum Profil recherché - 5 ans d’expérience minimum - Maîtrise du développement Go - Bonne connaissance Linux et environnements de production - Autonomie, rigueur, esprit d’équip
Mission freelance
Data Engineer Nantes/pa
WorldWide People
Publiée le
Scripting
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Mission freelance
[SCH] Développeur C# .NET - 1324
ISUPPLIER
Publiée le
10 mois
380-400 €
Paris, France
Dans le cadre d’un plan stratégique et de la transformation de l’architecture Pre-Trade, l’équipe cherche à repenser processus et architecture applicative, en collaboration étroite avec les métiers. Objectifs forts : robustesse, performance, scalabilité, avec interactions régulières avec architectes et utilisateurs finaux (environnement finance/marchés). Mission : -Développer et faire évoluer des composants C#/.NET orientés performance et résilience (architecture, patterns, code quality). -Concevoir/consommer des API REST pour l’intégration avec d’autres systèmes. -Travailler sur la couche données SQL : requêtes, optimisation, performance, index. -Contribuer au front Angular (interfaces robustes, bonnes pratiques). -Intégrer des flux via Kafka (producers/consumers, topics, offsets, schémas). -Participer aux déploiements en environnement OpenShift (conteneurs, CI/CD, scaling, sécurité). -Participer au cadrage : recueil besoins, spécifications techniques, traçabilité, évaluation de solutions. Profil attendu : -Expert C#/.NET avec forte culture architecture (OO, design patterns, data structures). -Habitué à des environnements exigeants en performance/latence et forte fiabilité. -Autonome sur SQL (optimisation) et API REST (design, intégration). -À l’aise avec Kafka et la logique streaming/événementiel. -Capable d’évoluer sur OpenShift et d’interagir avec CI/CD / déploiements. -Compréhension du contexte services financiers (trading / positions / instruments) ou forte capacité à monter rapidement. -Anglais courant.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- VRAI MEDIUM VOYANT PUISSANT GRATUIT +229 45723596
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- VOYANT GRATUIT SÉRIEUX EN FRANCE +33 7 54 05 54 85
- Réforme de l’assiette sociale
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Mission à 600 km de chez moi - Frais de double résidence
2880 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois