L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 638 résultats.
Mission freelance
Expert API Management (H/F)
Trust IT
Publiée le
API
Apigee
Azure DevOps
1 an
650-700 €
Île-de-France, France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un Expert API Management (H/F) Contexte : Le client gère une plateforme qui permet à ses différents services internes de communiquer entre eux via des API (des "ponts numériques" entre applications). Cette plateforme tourne sur un outil appelé Apigee de Google. Ce qu'ils cherchent : Un expert technique capable de gérer, configurer et faire évoluer cette plateforme au quotidien. Ce n'est pas un profil développeur pur, c'est un profil technico fonctionnel : il doit comprendre la technique ET savoir accompagner des équipes métier. Les missions concrètes du consultant Configurer et améliorer la plateforme Apigee (créer des proxys, des produits API…) Sécuriser les accès et connecter des outils DevOps Conseiller les équipes internes sur comment bien concevoir leurs API Faire de la veille sur les nouvelles versions d'Apigee Former et accompagner les utilisateurs Gérer les incidents et le support Le profil recherché : Un profil Architecte / Expert API Management avec une expérience confirmée sur Google Apigee . La connaissance de Pronovix est un plus. Idéalement quelqu'un qui a déjà travaillé dans un grand groupe avec de nombreuses API à gérer. Mots-clés : Apigee, API Management, APIM, Google Cloud, Proxy API, DevOps, API Gateway
Offre d'emploi
Business Analyst Data
VISIAN
Publiée le
Agile Scrum
Business Analyst
MySQL
1 an
Paris, France
Descriptif du poste Au sein d'une équipe data qui a pour mission de définir la stratégie et la feuille de route Data du groupe, de développer et gérer l'écosystème de partenaires Data, de définir et déployer la gouvernance des données, de définir et piloter le plan d'acculturation Data, et d'accompagner le déploiement des produits et services Data. Le Global Data Office a en charge le développement et le maintien des données de référence du groupe, et a lancé un programme de refonte de la plateforme de Master Data Management
Mission freelance
Data engineer (aws / talend / power bi)
Signe +
Publiée le
Microsoft Power BI
12 mois
400-440 €
Grenoble, Auvergne-Rhône-Alpes
contexte de la mission intervention chez un client grenoblois sur des sujets data environnement orienté cloud aws avec exploitation d’un datalake besoin d’un profil capable de couvrir à la fois la data ingénierie et une partie data visualisation missions principales conception, développement et maintenance de pipelines data exploitation et optimisation d’un datalake sur aws traitement, transformation et intégration des données via talend mise à disposition des données pour les équipes métiers création de dashboards et reporting sous power bi participation aux choix techniques et à l’amélioration continue des architectures data environnement technique cloud / data : aws (lambda, athena, glue, step functions, rds, s3) etl : talend data visualisation : microsoft power bi profil recherché expérience significative en data engineering bonne maîtrise de l’écosystème aws data (datalake) solide expérience sur talend (obligatoire) capacité à produire des dashboards power bi autonomie et capacité à intervenir en environnement projet
Mission freelance
DevOps AI Construire des application
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Nanterre, Île-de-France
Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé TJM: Selon profil Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentationDescription détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps
Mission freelance
Chef de projet API Management (H/F)
Insitoo Freelances
Publiée le
API
Axway
2 ans
450-550 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Chef de projet API Management (H/F) à Lyon, France. Contexte : L'équipe est à la recherche d'un chef de projet technique sur le domaine de l'API Management afin de renforcer notre équipe, il intégrera une équipe multidisciplinaire répartie sur plusieurs sites. Les missions attendues par le Chef de projet API Management (H/F) : Fonctionnant en agile, l'équipe transverse que vous intégrerez répond au besoin des projets de développement notamment en termes de gestion des API via un progiciel (Axway) et de pipelines CICD dans des environnements conteneurisés Openshift/Kubernetes. Le profil recherché devra : Piloter et assurer le suivi opérationnel et la qualité des contributions projets en méthode Agile (Kanban) Réaliser des cadrages et chiffrages suite à la sollicitation des projets Faire appliquer les patterns d'architecture en liaison avec les architectes et leaders techniques Connaître et maîtriser les concepts de base liés à l'API Management Connaître tout ou partie des technologies et outils suivants : API REST, SOAP, gitlab-ci, HTTP, TLS Être en capacité d'accompagner l'équipe dans un environnement Agile (facilitation Agile)
Mission freelance
Expert design système Data viz (H/F) - IDF + Remote
Mindquest
Publiée le
Azure
Microsoft Power BI
3 mois
330-490 €
Roissy-en-France, Île-de-France
Mission Cadrage & compréhension des besoins Recueillir, analyser et qualifier les besoins métiers et enjeux de pilotage Identifier les indicateurs clés (KPI) nécessaires à la prise de décision Formaliser la définition fonctionnelle et construire un dictionnaire de KPI Conception & Design DataViz Traduire les besoins en concepts de visualisation et design Définir : Scénarisation des KPI Hiérarchisation visuelle (typographie, graphiques…) Filtres interactifs et expériences utilisateur Concevoir le “storytelling” des dashboards (messages clés, parcours utilisateur) Produire maquettes, reportings et outils de pilotage Design System & standardisation Faire évoluer, enrichir et standardiser le Design System DataViz Structurer : Les éléments de design (couleurs, pictogrammes, composants visuels…) Les composants Power BI (templates, visuels, dashboards) Maintenir et piloter les bibliothèques de design (Figma & Power BI) Data & automatisation Participer à la préparation des données Mettre en place des logiques d’automatisation des reportings Collaborer avec les équipes data (Azure, Databricks…) Pilotage & delivery Piloter les projets de conception et garantir la qualité des livrables Rédiger les cahiers des charges et spécifications fonctionnelles / techniques Assurer le suivi des projets (planning, risques, priorisation…) Être garant de la satisfaction métier
Offre d'emploi
Architecte Solution Senior
EXMC
Publiée le
Architecture
TOGAF
UML
6 mois
Luxembourg
La mission couvre quatre axes principaux : 1. Architecture de Solution · Concevoir des architectures de solution end-to-end : applicative, data, technique et intégration. · Traduire les besoins métiers en solutions techniques concrètes alignées avec les standards du Groupe. · Définir les exigences non fonctionnelles : scalabilité, performance, sécurité, résilience, conformité. · Produire la documentation d’architecture : dossiers de solution, diagrammes C4, vues d’intégration, spécifications d’interfaces. · Garantir la conformité aux principes directeurs d’architecture et aux patterns recommandés. · Participer aux choix de technologies, frameworks et patterns (cloud-native, microservices, API-first, IA augmentée…). 2. Contribution à la Gouvernance d’Architecture · Participer activement aux revues de solution et aux instances de gouvernance (Architecture Review Board). · Assurer la préparation, présentation et validation des dossiers d’architecture. · Contribuer à la définition et mise à jour des principes, standards, garde-fous et patterns d’architecture. · Intégrer les enjeux de cybersécurité, IA, cloud et durabilité dans les choix de conception. 3. Support transverse et alignement avec l’Architecture d’Entreprise · Collaborer étroitement avec les architectes d’entreprise pour assurer cohérence, harmonisation et évolution du paysage IT. · Proposer des orientations et trajectoires d’évolution (modernisation, rationalisation, migration cloud…). · Assurer l’intégration et la contribution au référentiel d’architecture et au Tech Radar. 4. Innovation et IA Engineering · Assurer une veille technologique active sur les architectures cloud, API-centric, data-centric et IA engineering. · Évaluer l’apport des solutions d’IA émergentes (agents autonomes, RAG, MCP…) dans les patterns d’architecture. · Contribuer à l’évolution de la pratique d’architecture-as-a-service. Profil · Expérience confirmée en architecture de solution dans des environnements complexes et en transformation. · Excellente maîtrise des technologies modernes : cloud, microservices, API, data, cybersécurité. · Expertise en frameworks et outils : TOGAF, C4, UML, outils de modélisation. · Leadership technique, capacité de vulgarisation et pédagogie. · Forte autonomie et capacité à travailler en transversal.
Mission freelance
101528/Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES
WorldWide People
Publiée le
Semarchy
12 mois
360-390 €
Nantes, Pays de la Loire
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES 04/05/2026 1 an Nantes ( 2 jours de télétravail) Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell Build: conception et développement de nouvelles solutions socle data Run: MCO et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Développer des traitements ELT xDI Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Nous recherchons un data engineer confirmé. La maitrise de Semarchy xDi, SQL et GitLab CICD est nécessaire.
Mission freelance
SENIOR DATA AND AI ENGINEER
CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake
1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Mission freelance
Data Scientist Senior
NEOLYNK
Publiée le
Python
SQL
3 mois
400-500 €
Lille, Hauts-de-France
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques.
Mission freelance
Manager de transition Data Factory (H/F) - 94
Mindquest
Publiée le
Microsoft Power BI
Microsoft Project
3 mois
Val-de-Marne, France
Dans ce cadre, vos principales missions seront les suivantes : Gouvernance: - Concevoir et porter les dossiers d’investissement des projets - Rédiger des cahiers des charges techniques et analyser les offres techniques dans le cadre des consultations fournisseurs - Piloter les prestations externes - Garantir la cohérence et l’alignement des feuilles de route stratégiques et opérationnelles, en assurant une mise en œuvre coordonnée avec les échéances fixées - Collaborer avec les différentes équipes afin d’assurer la cohérence des actions et des objectifs - Soutenir les instances de gouvernance en préparant les éléments de reporting nécessaires - Coordonner et faciliter le partage d’informations entre les équipes et l’ensemble des parties prenantes - Participer à l’amélioration continue des processus internes afin d’optimiser l’efficacité opérationnelle Pilotage du portefeuille de programmes: - Participer à l’identification et au suivi des projets du périmètre en veillant à leur alignement avec les objectifs stratégiques -Assurer le pilotage du portefeuille de projets via un suivi structuré visant à garantir la réussite des initiatives, en coordination avec les équipes métiers -Mettre à jour les outils de suivi du portefeuille de projets -Produire les reportings et les tableaux de bord de pilotage -Participer aux instances de coordination et de suivi des projets -Assister le responsable du département dans certaines missions de support managérial selon les besoins -Contribuer à l’organisation d’événements professionnels (planification, production de contenus, logistique)
Offre d'emploi
Lead Frontend Vue.JS 3
Proxiad
Publiée le
API REST
CI/CD
Github
10 mois
40k-45k €
400 €
Lille, Hauts-de-France
🌟 Contexte Dans le cadre du développement d’une plateforme data innovante, nous recherchons un Lead Frontend Vue.js 3 pour intervenir sur un produit stratégique de gestion et de découverte de données . 👉 Cette plateforme permet notamment : La gestion et le partage de datasets La création de Data Products La recherche avancée de données La gestion des accès et des règles de confidentialité Le pilotage de pipelines data 🎯 Enjeux forts : UX sur interfaces complexes, performance et gouvernance des données 🎯 Votre mission En tant que Lead Frontend , vous jouez un rôle clé à la fois technique et structurant. Vous interviendrez de manière opérationnelle (hands-on) sur : La conception d’une architecture frontend scalable et maintenable Le développement de features complexes orientées data L’amélioration de la qualité technique globale La mise en place de bonnes pratiques et standards L’accompagnement technique des développeurs frontend
Offre d'emploi
Administrateur API Management Apigee
VISIAN
Publiée le
API
Apigee
1 an
Île-de-France, France
Contexte Le bénéficiaire souhaite une prestation pour l'évolution, la configuration et l'administration de la plateforme d'API Management du groupe basé sur la solution Google APIGee / Pronovix (Définition de proxy génériques/custom Apigee...). Missions Études sur l'amélioration de la plateforme (accostage Toolchain DevOps, sécurisation des accès…) Développements de configurations Apigee (Proxy, API Product,...) pour le compte des API Owner d'ITGP Accompagnement des métiers du groupe pour le design des API à porter sur l'APIM
Mission freelance
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU
WorldWide People
Publiée le
Business Object
12 mois
400-460 €
Niort, Nouvelle-Aquitaine
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU La mission consiste à contribuer à la structuration, l’industrialisation et la valorisation de la donnée au sein d’une équipe dédiée, afin de soutenir une transformation data ambitieuse et d’améliorer de manière continue la fiabilité et la performance des traitements. Elle vise à concevoir, organiser et optimiser les flux de données, en garantissant que chaque chaîne d’alimentation et chaque modèle produit s’inscrivent dans une démarche cohérente, durable et alignée avec les besoins métiers. Le rôle repose sur la capacité à bâtir des pipelines robustes et industrialisés, à modéliser des structures de données adaptées, et à assurer une qualité irréprochable sur l’ensemble du cycle de vie de la donnée. Une attention particulière est portée à la standardisation des pratiques, à la réduction de la dette technique et à la bonne intégration des données dans les outils d’analyse et de visualisation. La mission implique également de challenger les solutions existantes, d’identifier des axes d’optimisation et de proposer des architectures ou processus plus performants, notamment en matière d’automatisation et de gouvernance. Elle s’inscrit dans un objectif global d’amélioration continue : sécuriser les traitements, fiabiliser les décisions métier, fluidifier les interactions entre les équipes impliquées et transformer les contraintes opérationnelles en leviers de performance durable.
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2638 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois