L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 593 résultats.
Offre premium
Mission freelance
Architecte Solution DevOps – IDF 92 - Vorstone
VORSTONE
Publiée le
Architecture
Azure DevOps
CI/CD
1 an
700-800 €
Hauts-de-Seine, France
Architecte Solution DevOps Au sein de la Direction Digital, Data & Systèmes d’Information : Contexte de la prestation Dans le cadre de la transformation digitale du groupe, nous recherchons un Architecte Solution DevOps spécialisé dans l’Automation. Rattaché au département Architecture d’Infrastructure au sein de la Direction des opérations, l’Architecte DevOps sera intégré à l’équipe Automation composée d’architectes et d’ingénieurs techniques. L’objectif est de renforcer l’équipe et d’améliorer les pratiques DevOps, en collaborant avec les équipes de développement et d’exploitation pour automatiser les processus, mettre en place des pipelines CI/CD, gérer l’infrastructure cloud et on-premise, et assurer la fiabilité des applications. Missions Intégré à l’équipe Architecture Opérations, vos responsabilités seront : Définir et concevoir les architectures DevOps, notamment pour l’infrastructure as code. Concevoir, développer et maintenir des pipelines CI/CD pour automatiser le déploiement, les tests et la livraison des applications. Gérer l'infrastructure cloud et on-premise à l’aide de Terraform et Ansible. Collaborer avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de vie des applications. Contribuer à l’élaboration et à l’amélioration des processus et outils DevOps. Documenter et partager les connaissances avec l’ensemble des architectes. Rédiger les normes et standards liés aux pratiques DevOps.
Mission freelance
API Platform Engineer / Ingénieur Apigee
BEEZEN
Publiée le
API
API Platform
Apigee
12 mois
540-600 €
Montreuil, Île-de-France
Je recherche un API Platform Engineer / Ingénieur Apigee pour intervenir sur l'évolution, la configuration et l'administration de la plateforme d'API Management du groupe basé sur la solution Google APIGee / Pronovix (Définition de proxy génériques/custom Apigee...) Les missions sont: - Etudes sur l'amélioration de la plateforme (accostage Toolchain DevOps, Sécurisation des accès…) - Développements de configurations Apigee (Proxy, API Product,...) pour le compte des API Owner d'ITGP - Accompagnement des métiers du groupe pour le design des API à porter sur l'APIM - Veille technologique et mise en place de nouvelles versions et/ou fonctionnalités Apigee - Réalisation des sessions de présentation et de formation aux utilisateurs - Vérification du bon usage des services par les utilisateurs - Participation à la planification des activités - Assistance et support auprès des utilisateurs (Gestion des incidents, expertise...) Profil développeur Date de démarrage : 1er Juin 2026
Mission freelance
Data Scientist Senior (IA Générative & NLP)
Nicholson SAS
Publiée le
Agent IA
AWS Cloud
Dataiku
6 mois
450 €
Colombes, Île-de-France
Nous recherchons un Data Scientist Senior (5 à 9 ans d'expérience) pour intervenir sur des projets d'envergure mêlant Intelligence Artificielle conventionnelle et IA Générative. 📍 Modalités de la mission Lieu : Colombes (Hybride : 2 à 3 jours/semaine sur site) Date de démarrage : 04/05/2026 Date de fin : 30/10/2026 (prolongation possible) Budget (TJM ) : 450 € 🎯 Cœur de mission Expert en IA, vous concevez et implémentez des systèmes d'IA générative avancés (LLM). Vous accompagnez techniquement les équipes, de la phase de prétraitement des données jusqu'au déploiement en environnement Cloud, tout en garantissant la robustesse et la factualité des modèles. 🛠 Compétences techniques Expertise IA Générative & NLP (Indispensable) : LLM & RAG : Maîtrise des architectures RAG (chunking, embeddings, vector indexing, retrieval), du prompt engineering avancé et des frameworks comme LangChain ou LlamaIndex . NLP : Prétraitement textuel complet (parsing, POS Tagging, normalisation) et évaluation des modèles (métriques NLP, analyse d'hallucinations et factualité). Deep Learning : Maîtrise des architectures Transformers, RNN, LSTM et GRU. Stack Technique : Langages & Libs : Excellente maîtrise de Python et des bibliothèques standards ( PyTorch, TensorFlow, Scikit-learn ). Cloud & MLOps : Déploiement sur environnements Cloud (idéalement AWS : SageMaker, Bedrock, OpenSearch). Pratiques CI/CD via GitLab . Outils Data : Connaissance de Dataiku et des enjeux réglementaires (RGPD / AI Act).
Mission freelance
Développeur Infrastructure / DevOps – Plateforme Data (H/F)
Pickmeup
Publiée le
Azure
Kubernetes
Terraform
2 ans
500-600 €
75015, Paris, Île-de-France
🏢 Contexte Au sein d’une organisation publique innovante spécialisée dans la gestion et la valorisation de données à grande échelle , vous rejoignez la direction technique en charge de la conception, de l’implémentation et de la maintenance d’une plateforme Data sécurisée. Vous intégrerez une équipe technique dédiée à l’infrastructure, évoluant dans un environnement agile et collaboratif, en interaction avec des profils Data, Produit et Ops. La plateforme repose sur des technologies cloud modernes et des pratiques d’ Infrastructure as Code dans un contexte exigeant en matière de sécurité. 🚀 Missions En tant que Développeur Infrastructure / DevOps, vous interviendrez sur : 🔧 Développement & automatisation Développement et maintenance de l’infrastructure as code Automatisation des déploiements cloud à grande échelle Intégration de composants techniques au sein d’environnements Kubernetes ⚙️ Plateforme & performance Déploiement et maintenance de composants applicatifs et techniques Contribution à la stabilité, performance et évolutivité de la plateforme Collaboration avec les équipes Data pour répondre aux besoins métiers 🔐 Sécurité & bonnes pratiques Application des standards de sécurité et conformité Participation aux évolutions d’architecture Veille technologique et amélioration continue 📚 Documentation & collaboration Rédaction et mise à jour de la documentation technique Participation aux échanges techniques et partage de bonnes pratiques 🛠️ Environnement technique Cloud : Azure Infrastructure as Code : Terraform, Terragrunt, Packer, Ansible Conteneurisation : Kubernetes, Docker, Helm Scripting : Bash, Python Outils : Git, CI/CD, GitLab Data tools : Jupyter, Spark, PostgreSQL
Mission freelance
PROXY PRODUCT OWNER DATA
Codezys
Publiée le
ERP
Finance
P2P
6 mois
Courbevoie, Île-de-France
Contexte de la mission : Intégrée au Group Data Office dans le cadre de la transformation Finance, cette mission sert d’interface entre Finance, IT et équipes Data. Le Proxy Product Owner Data accompagne l’équipe Corporate Finance dans les programmes de transformation tels que : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus Finance Elle vise à : Identifier, structurer et prioriser les initiatives data Finance Aligner avec les standards et architectures du Group Data Office Piloter et livrer efficacement ces initiatives Le rôle, transverse et collaboratif, relie besoins métiers, capacités techniques data et frameworks de delivery, tout en assurant gouvernance et conformité aux standards du groupe. Objectifs et livrables : 1. Identification et structuration des projets data Finance : Identifier les initiatives de transformation avec impact data Évaluer leur valeur business et faisabilité Assurer leur alignement avec les priorités du Group Data Office Livrables : portefeuille d’initiatives, framework de qualification, analyse d’impact 2. Formalisation des besoins et conception des solutions : Traduire besoins Finance en exigences data et techniques Aligner avec les patterns d’architecture du groupe Livrables : documentation des besoins, spécifications, flux et processus, validation des solutions 3. Expertise Finance et support : Fournir une expertise sur les processus Corporate Finance Accompagner les initiatives P2P, O2C, automatisation Livrables : cartographie, recommandations d’amélioration 4. Automatisation des processus : Soutenir les cas d’usage automatisation Garantir la qualité et l’intégration des données Livrables : backlog, spécifications, pipelines et intégrations 5. Coordination du delivery : Coordonner équipes Finance, IT, Data Office Suivre l’avancement, identifier blocages Livrables : tableaux de bord, rapports, gestion des risques 6. Gouvernance, standards et bonnes pratiques : Respecter standards du Data Office Appliquer patterns d’architecture et contrôles qualité Livrables : conformité, documentation, règles qualité 7. Communication et gestion des parties prenantes : Être référent data du programme Finance Transformation Assurer communication et coordination Faciliter la prise de décision Livrables : rapports d’avancement, supports, présentations
Mission freelance
Architecte IT
Codezys
Publiée le
Active Directory
AWS CloudFormation
Azure
12 mois
Massy, Île-de-France
Contexte général Dans un contexte de cybersécurité renforcée, notre entreprise vise à renforcer la sécurité de son Système d’Information. Par ailleurs, afin de conserver notre position de leader, nous devons accompagner nos métiers dans la mise en œuvre de nouvelles solutions. À cette fin, il est nécessaire de rédiger les dossiers d’architecture technique correspondant à ces solutions. Objet du cahier de consultation Dans le cadre de ce projet, l'entreprise a décidé de sous-traiter la conception de l’architecture technique pour ses sites en France et à l’international. Cette mission doit prendre en compte diverses caractéristiques et contraintes, tout en garantissant une cohérence technique et la stabilité du système d’information durant son évolution. Il s’agit également d’étudier l’impact de ces solutions sur l’architecture existante ou future. Cette prestation requiert une expertise approfondie sur les technologies telles que VMware, Windows, MSSQL, Cloud, clustering, et autres. Une capacité à rédiger une documentation technique détaillée est également indispensable. Logistique Date de démarrage : prévue le 01/04/2026, avec une livraison au plus tard le 31/12/2026 Lieu : Massy Profil recherché : Expert ou sénior avec nationalité ......................, contrôle élémentaire requis (FICE) Panel ciblé : Infrastructures Typologie de prestation : Architecture Le prestataire devra fournir un ordinateur personnel (PC) Maîtrise de l’anglais souhaitée Objectifs et livrables 1. Environnement technique de la prestation Les solutions techniques concernent notamment Windows, VMware, MSSQL, IIS, Active Directory, clustering, et Cloud. Toutes ces solutions doivent respecter les standards de l'entreprise, accessibles via l’ITRB. 2. Prestations attendues Concevoir l’architecture technique des solutions requises pour les sites en France et à l’international, en prenant en compte diverses caractéristiques et contraintes. L’objectif est d’assurer une cohérence technique et la stabilité du système d’information tout au long de son développement, tout en analysant leur impact sur l’architecture existante ou à venir.
Offre d'emploi
Business Analyst
R&S TELECOM
Publiée le
Alteryx
Big Data
Microsoft Power BI
1 an
Montpellier, Occitanie
Contexte de la mission : Pour l’un de nos clients : la mission consiste à cartographier les rapports existant en vue de la fin des rapports SAP BI fin 2027 Tâches à réaliser : La mission consiste à réaliser les tâches suivantes, en autonomie : Collaborer avec les équipes métiers (comptabilité, back office bancaire, ..), Cartographie rapport existant suite à l'abandon de SAP4BI fin 2027, Analyser l'utilisation des rapports par les différents métiers, Identifier les doublons, s'ils sont ou non utilisés, Migration des rapports sur PowerBI ou Alteryx.
Mission freelance
Data engineer GCP
ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)
1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Offre d'emploi
AI / Data Engineer – IA Générative & Databricks (Python / ML / AWS) – H/F
SMARTPOINT
Publiée le
IA Générative
Large Language Model (LLM)
Pandas
1 an
50k-60k €
400-550 €
Île-de-France, France
Dans le cadre du développement de projets data innovants, nous recherchons un AI / Data Engineer spécialisé en Intelligence Artificielle Générative (H/F) . Vous interviendrez sur la conception et la mise en œuvre de solutions data avancées , avec un focus sur la plateforme Databricks et sur des cas d’usage en IA Générative (LLM, RAG, fine-tuning) . Votre rôle consistera à accompagner les équipes dans le cadrage, le développement et la mise en production de modèles d’intelligence artificielle , tout en contribuant à l’industrialisation des solutions et à l’évolution des plateformes data. Conseil et cadrage des cas d’usage IA Accompagner les équipes dans l’identification et le cadrage de cas d’usage data et IA Générative Conseiller sur les choix d’architecture, de modèles et de stratégies RAG ou fine-tuning Participer à la définition de solutions innovantes sur la plateforme Databricks Conception et développement de modèles IA Développer des modèles de Machine Learning et Deep Learning Concevoir des solutions basées sur LLM et architectures Transformers Implémenter des cas d’usage d’ IA Générative (RAG, fine-tuning, prompt engineering) Collecte et préparation des données Collecter, nettoyer et transformer les données nécessaires à l’entraînement des modèles Réaliser des analyses exploratoires et préparer les datasets pour l’entraînement Industrialisation et MLOps Mettre en production les modèles d’intelligence artificielle Mettre en place des processus de monitoring et de maintenance des modèles Contribuer à l’industrialisation des pipelines data et des modèles IA
Offre d'emploi
DATA ANALYST- Trade Finance
AVA2I
Publiée le
SQL
Xray
1 an
Île-de-France, France
Compétences fonctionnelles • Expérience en banque d'investissement et Trade finance indispensable • Capacité à appréhender les principes d'architecture et problématiques IT • Expérience en implémentation Agile • Connaissance des tests automatiques • Connaissances des portails Trade Finance (Swiftnet, Vialink, Konsole, etc.) Compétences comportementales • Travail en équipe et sens du service • Communication aisée à l'oral comme à l'écrit en environnement multiculturel • Capacité d'analyse et de synthèse • Organisation, dynamisme et rigueur Langues • Anglais opérationnel (usage régulier avec des équipes anglophones) • Français courant IT : SQL, si outils d'automatisation de tests comme selenium ou xray ou autre serait un plus
Offre premium
Mission freelance
System Architect – E-commerce Platform
DEV AND CONNECT
Publiée le
Architecture
Service Delivery Management
6 mois
500-700 €
Paris, France
👉 Contexte Pour un acteur majeur du e-commerce dans un environnement international exigeant, nous recherchons un Architecte senior capable de concevoir, structurer et garantir la cohérence d’un système complexe à grande échelle. Vous interviendrez sur des enjeux critiques de scalabilité, performance et intégration, avec un rôle central dans la définition des architectures et leur mise en œuvre opérationnelle. 🚀 Responsabilités clés Définir et porter l’architecture globale (fonctionnelle et technique) des systèmes et sous-systèmes Garantir la cohérence du SI dans un environnement distribué (API, microservices, intégrations) Être l'un des référents sur les choix structurants (patterns d’architecture, intégration, découpage des systèmes) Assurer la prise en compte des enjeux non fonctionnels : performance, résilience, sécurité, scalabilité Définir le chemin d’implémentation et sécuriser la faisabilité technique des initiatives Travailler en étroite collaboration avec la Design Authority et les Tech Leads Aligner les équipes sur les standards d’architecture et garantir leur bonne application 🚀 Delivery & coordination Cadrer les sujets en amont et challenger les besoins au regard des contraintes techniques Piloter des sujets complexes multi-équipes et assurer leur bonne orchestration Contribuer à la structuration des Epics techniques (Enablers) Réaliser des macro-estimations (impacts, dépendances, trajectoire d’implémentation) Être garant de la qualité dès la conception (“build-in quality”) Sécuriser le delivery en anticipant les risques techniques 🧠 Environnement technique & enjeux Architecture distribuée (API, microservices, event-driven) SI complexe avec multiples intégrations Contexte international à fort trafic Enjeux de performance, scalabilité et résilience Organisation Agile à l’échelle (type SAFe)
Offre d'emploi
Consultant Data Snowflake
AGH CONSULTING
Publiée le
Qlik
Snowflake
6 mois
38k-45k €
280-400 €
Île-de-France, France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake, pour renforcer des équipes BI/Data existantes. Missions principales ▪ Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView ▪ Analyser les besoins métiers et les traduire en solutions BI pertinentes ▪ Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) ▪ Participer à l’amélioration des modèles de données et des performances des reportings ▪ Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique ▪ BI / Data Viz : Qlik Sense / QlikView ▪ Data Warehouse : Snowflake (niveau compréhension / usage) ▪ Langages & outils : SQL, notions ETL, environnements Data modernes ▪ Méthodologie : projets BI, travail en équipe agile ou hybride
Mission freelance
Reporting Réglementaire (SQL/Alteryx) Recette & Data
STHREE SAS pour HUXLEY
Publiée le
6 mois
75001, France
Contexte & objectifs Au sein d'une équipe projet Finance & Risques rattachée à la Direction Architecture & Reporting , vous intervenez sur des travaux de recette et de qualité des données pour des reportings réglementaires d'un groupe bancaire de premier plan. L'objectif : sécuriser la production réglementaire, fiabiliser les flux de données et déployer de nouveaux contrôles de second niveau. Missions principales 1) Déclinaison d'une nouvelle guidance BIDS au format MBDT Organiser la recette (stratégie, jeux d'essais, critères d'acceptation). Exécuter les campagnes de tests en interaction avec les métiers. Réaliser l' analyse de qualité des données avec les communautés concernées et leurs DSI. Suivre les anomalies (qualification, priorisation, plan de remédiation). Animer des ateliers de restitution et produire les synthèses de recette . 2) Recette des dispositifs réglementaires au sein de la squad "Usages" Conduire les TNR et évolutions liées aux nouvelles versions des backbones de données (sourcing des reportings réglementaires). Valider les tirs de certification dynamique dans le cadre d'un projet de mutualisation du SI (tests d'intégration bout‑en‑bout, traçabilité, conformité). Livrables attendus Stratégie et cahiers de recette , cas de tests, jeux de données, PV de validation. Dossiers de contrôle (fiches de contrôle, flowcharts de production, notes de synthèse). Tableaux de bord d'anomalies et plans d'actions. Compte‑rendus d'ateliers et rapports de synthèse pour les parties prenantes. Profil recherché 7 à 9 ans d'expérience en data/recette dans un environnement bancaire/assurance . Maîtrise de SQL et Alteryx ; à l'aise avec des volumétries importantes et la traçabilité de bout en bout. Solide culture fonctionnelle bancaire et reporting réglementaire (ex. AnaCredit, RCH, VDS, SRB‑MREL ). Connaissance des dispositifs de contrôle 1er/2nd niveaux et des meilleures pratiques de qualité de données . Rigueur, autonomie, sens du service et capacité d'animation (ateliers, restitutions, coordination multi‑équipes).
Mission freelance
Data ingénieur spécialiste DBT / Data Build Tool (H/F)
ALLEGIS GROUP
Publiée le
DBT
12 mois
Yvelines, France
TEKsystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur spécialiste DBT / Data Build Tool (H/F) Vos missions : Concevoir et mettre en œuvre des plateformes de données modernes Industrialiser et optimiser des solutions techniques Développer et maintenir des pipelines de données efficaces, du sourcing à la visualisation (ingestion, traitement, exposition) Assurer la qualité et la sécurité des données tout au long de leur cycle de vie Collaborer avec les équipes métier pour comprendre les besoins et fournir des solutions data adaptées Évaluer et recommander des technologies émergentes pour améliorer les capacités de la plateforme data Dans l’environnement technique suivant (cette liste n’est pas exhaustive et surtout, elle indique les technos qui nous intéressent !) :
Offre d'emploi
Consultant MSBI (Power BI)
adbi
Publiée le
Azure Data Factory
Azure DevOps
CI/CD
4 mois
40k-51k €
500-520 €
Île-de-France, France
Le groupe, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet de reporting pour l’activité ENR. La mission comprendra les tâches suivantes : · Concevoir des modèles de données adaptés. · Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement). · Prendre en charge les développements de rapports Power BI. · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
Mission freelance
Architecte Sécurité SI – IAM & Plateforme NIM
Deodis
Publiée le
IAM
1 an
600 €
Île-de-France, France
Dans le cadre de la construction d’une plateforme applicative dédiée à l’Asset Management, l’architecte sécurité SI intervient en tant qu’expert afin de garantir un niveau de sécurité conforme aux exigences métiers, réglementaires et aux standards du marché. Il analyse l’architecture cible pour identifier les risques, définit et valide les mécanismes de sécurité clés (gestion des identités et des habilitations, authentification, autorisation, chiffrement, cloisonnement, journalisation) et veille à leur intégration tout au long du cycle de développement. En étroite collaboration avec les équipes projet et sécurité, il accompagne la prise en compte des exigences, contribue aux choix d’architecture et de solutions, assure la conformité aux référentiels internes et participe aux revues de sécurité jusqu’à la mise en production, notamment via la production d’un dossier d’architecture sécurité structurant.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2593 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois