L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 536 résultats.
Mission freelance
Data Engineer GCP - Anglais niveau C1
ALLEGIS GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Terraform
18 mois
470-520 €
Paris, France
Intégrer une mission au sein de notre client en tant que Data Engineer GCP. Missions : Créer de nouveaux projets et produits de données sur GCP au sein du sous-domaine Finance Procurement . Participer au développement back‑end sur GCP et, pour certains cas d’usage, créer également le modèle sémantique Power BI . Intégration au sein d’une sous‑équipe de 4 data engineers dans une équipe Finance de 10 personnes au total. 70 % du temps consacré à l’innovation et aux nouveaux projets sur GCP. 30 % du temps dédié à la continuité et à la maintenance.
Mission freelance
SAP Senior Developer BTP / Integration & Data Conversion
Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA
2 ans
Versailles, Île-de-France
Nous recherchons un Développeur SAP BTP / CPI senior - Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de d'intervenir techniquement sur les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: • Développer et maintenir des flux d'intégration autour de SAP BTP et de l'Integration Suite, en lien avec SAP, les systèmes legacy et les systèmes satellites. • Mettre en œuvre des interfaces techniques basées sur API, événements, fichiers ou middleware, selon les schémas définis par le projet. • Effectuer des activités de conversion de données • Contribuer aux tests techniques, aux tests d'intégration et à la correction des bugs • Documenter les développements réalisés et participer au transfert de connaissances aux équipes internes Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec cartographie, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes
Offre d'emploi
Expert Data Gouvernance H/F
Avanda
Publiée le
Apache Airflow
Collibra
Databricks
12 mois
Paris, France
Nous recherchons, dans le cadre du renforcement des equipes Data Governance d'un de nos clients au rayonnement international, un.e Expert.e Data Governance. Ce poste est base a Paris. Poste ouvert au statut freelance. Au sein de l'équipe Data Governance, l'Expert.e Data Gouvernance interviendra sur l'évolution fonctionnelle et technique du Data Catalog de l'entreprise et son intégration au sein d'un écosystème data & agentic platform en pleine structuration, ainsi que sur des chantiers stratégiques tels que l'AI Governance Framework et la mise en oeuvre d'une démarche Data Quality by Design. Les missions principales Administration, configuration et développement de workflows sur le Data Catalog Collecte et priorisation des besoins utilisateurs Conception et mise en oeuvre des échanges de métadonnées avec la plateforme data (crawling, APIs, connecteurs) Synchronisation avec les équipes architecture Intégration avec le Data Quality Metrics Store Participation au programme Data Contract
Mission freelance
Data Base Administrator
VISIAN
Publiée le
Database
MariaDB
Microsoft SQL Server
1 an
300-380 €
Île-de-France, France
L’administrateur/administratrice de base de données conçoit, gère et administre les systèmes de gestion de bases de données. Sa principale mission est de garantir la cohérence, la qualité, la sécurité et l’accessibilité permanente des informations. Périmètre détaillé : Administration : Effectue le choix d'implémentation des bases de données. Crée les bases en liaison avec l’administrateur système et les chefs de projets concernés. Met en œuvre les logiciels de gestion de bases de données. Effectue l'adaptation, l'administration et la maintenance de ces logiciels. Met en exploitation et en gestion les serveurs de données (administration, automatisation, développement des procédures, sécurité et autorisation d’accès, optimisation des traitements et des requêtes…). Crée, à la demande des domaines ou de l’exploitation, les outils spécifiques d’aide à l’exploitation. Exploitation : Assure l’intégrité des bases de données existantes en garantissant la sécurité physique (procédures de sauvegarde, restauration, journalisation, démarrage après incidents…) et logique (confidentialité, accès). Met en œuvre les outils de surveillance. Règle les paramètres des bases de données pour une utilisation optimale. Support : Assiste les utilisateurs (formation, requêtes techniques…). Effectue un support technique de second niveau pour l’ensemble des bases de données. Possède un rôle de correspondant technique entre les chefs de projets et le support technique des éditeurs. Études et contrôles : Assure une veille technologique sur les SGBD et les progiciels retenus par l’entreprise. Suit et contrôle les évolutions de version des bases existantes et progiciels retenus par l’entreprise. Teste, valide, pour les aspects techniques, tous les logiciels et progiciels. Définit les normes et standards d’utilisation et d’exploitation des SGBD. Livrables : Bases de données avec des temps d'accès raisonnables. Documentation sur la structure de la base et les procédures d'exploitation et de production.
Offre d'emploi
Senior Data Analyst
AEROW
Publiée le
Microsoft Fabric
Microsoft Power BI
3 ans
Bruxelles, Bruxelles-Capitale, Belgique
Senior Data Analyst expert capable de transformer des besoins métier complexes en insights exploitables. Vous interviendrez dans un environnement Data Mesh / Medallion / Microsoft Fabric Lakehouse , avec un rôle clé sur la qualité des données, la création de KPI fiables et la production de dashboards avancés pour le management. Analyse des besoins métier et définition de KPI pertinents . Transformation et préparation des données via SQL (structurées & semi‑structurées). Travail dans une architecture Medallion (Bronze/Silver/Gold) . Approche data mesh & conception de data products . Contrôles de qualité des données & documentation. Création de dashboards avancés dans Power BI (DAX) . Compréhension du Microsoft Fabric Lakehouse pour la localisation et l’interprétation des données. Collaboration avec les équipes ICT et participation active à la gouvernance data.
Mission freelance
SRE DevOps / AI Automation (H/F)
HOXTON PARTNERS
Publiée le
Agent IA
AWS Cloud
DevOps
9 mois
Paris, France
Dans le cadre d’un programme stratégique au sein d’un grand groupe du secteur du luxe, nous recherchons un consultant senior SRE DevOps disposant d’une forte expertise sur AWS et d’une expérience concrète dans l’automatisation de la remédiation d’incidents via des agents IA. La mission s’inscrit dans un environnement exigeant, orienté fiabilité, performance et industrialisation des opérations. Le consultant interviendra sur des sujets de Site Reliability Engineering, d’automatisation avancée, d’observabilité et d’optimisation de la production, avec une forte dimension innovation autour des LLM et des agents autonomes. Les responsabilités incluent notamment : contribuer à la fiabilité, à la stabilité et à la performance des plateformes cloud AWS ; concevoir et mettre en œuvre des mécanismes de remédiation automatique d’incidents ; intégrer des agents IA dans les workflows d’exploitation, de troubleshooting et de runbooks ; participer à la mise en place de chaînes d’automatisation autour du monitoring, de l’alerting et de la gestion des incidents ; travailler sur des architectures et outils liés à Kubernetes, Docker, Terraform, Ansible et Helm ; collaborer avec les équipes infrastructure, applicatives, sécurité et opérations pour améliorer la résilience globale des services ; contribuer à l’observabilité et à l’exploitation des données issues d’outils tels que Datadog, Dynatrace, New Relic ou Elastic ; accompagner l’industrialisation des pratiques DevSecOps, de la gestion des accès, des secrets et des sujets IAM.
Offre d'emploi
Ingénieur DevOps (H/F) - IA Générative - Nantes
CAT-AMANIA
Publiée le
AWS Cloud
Docker
GitLab CI
1 an
Nantes, Pays de la Loire
Dans le cadre du développement de projets innovants autour de l’ IA Générative , nous recherchons un Ingénieur DevOps confirmé pour renforcer les équipes techniques. 📍 Poste basé à Nantes (44) – profils locaux fortement privilégiés. Vous interviendrez sur la mise en place et l’industrialisation d’environnements techniques permettant de déployer des solutions d’IA à grande échelle. Missions principales Mise en place et gestion des infrastructures Cloud & On-Premise Industrialisation des déploiements (CI/CD) Déploiement et maintenance d’architectures IA Mise en place des outils de monitoring et d’observabilité Participation à la construction d’un socle technique réutilisable (“components on shelf”) Collaboration avec les équipes de développement et data
Mission freelance
IA Delivery Product Owner / Business Analyst
ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : IA Delivery Lead Position dans l’organisation Le/la IA Delivery Product Owner / Business Analyst contribue à la conception et à la livraison des cas d’usage en intelligence artificielle, en assurant l’interface entre les besoins métiers et les équipes de delivery. Encadrement Aucun management direct Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de l’adoption et de la transformation Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Product Owner / Business Analyst est responsable de l’exécution produit et de l’AMOA sur les cas d’usage IA (copilots, agents, solutions RAG). Il/elle traduit les besoins métiers en backlog, spécifications fonctionnelles et parcours utilisateurs, organise la recette et contribue à l’amélioration continue des solutions en production. Le poste intervient dans un cadre structuré : sans responsabilité sur le développement technique sans responsabilité directe sur la conformité sans responsabilité sur la préparation des bases de connaissances Responsabilités principales 1. Cadrage des besoins Animer les ateliers métiers (besoins, irritants, processus, scénarios) Formaliser les cas d’usage et les priorités Contribuer à la définition des indicateurs de succès 2. Gestion du backlog et priorisation Construire et maintenir le backlog produit (user stories, critères d’acceptation) Prioriser les évolutions avec le IA Delivery Lead et les parties prenantes Préparer et animer les rituels Agile Garantir la clarté et la qualité des tickets 3. Conception fonctionnelle Définir les parcours utilisateurs et scénarios d’usage Formaliser les règles métier et comportements attendus Intégrer les mécanismes de gestion des limites de l’IA (incertitude, erreurs, hallucinations) Concevoir des expériences utilisateur robustes et sécurisées 4. Coordination des prérequis Exprimer les besoins en données et en bases de connaissances Contribuer à la formalisation des exigences de traçabilité et d’usage Collaborer avec les équipes techniques pour clarifier les besoins fonctionnels Assurer l’alignement entre les différentes parties prenantes 5. Recette fonctionnelle Définir la stratégie de tests (cas nominaux, limites, scénarios sensibles) Préparer et exécuter les phases de recette Suivre les anomalies et piloter leur résolution Contribuer aux décisions de go / no-go 6. Amélioration continue et industrialisation Collecter les retours utilisateurs et identifier les axes d’amélioration Alimenter le backlog d’évolution Capitaliser sur les retours d’expérience Contribuer à la standardisation des pratiques (copilots, agents, RAG)
Offre d'emploi
Developpeur IA/PL SQL
CAT-AMANIA
Publiée le
API REST
IA
Java
Île-de-France, France
Passer à l'échelle & basculer l'ensemble des procédures stockées PL/SQL du périmètre GDC de DB2 à POSTGRE avec du code JAVA / Spring Boot / Kub / Rest. # Rétro documenter l'ensemble des procédures stockées # Transformer les procédures stockées en nouveaux services JAVA / Spring Boot / Kub Rest intégré à la nouvelle GDC # Transformer les procédures avec une liaison interbase GDC / BCP (référentiel tiers) & re mapper les fonctions sur le nouveau référentiel RET dans le code JAVA cible # Basculer les applications tierces utilisant les anciennes Procédures stockées (comme pseudo WebService) sur les nouveaux services REST équivalents # S'appuyer sur les technologies IA pour accélérer la production / test de code en lien avec l'équipe DEV X chargée de produire des guidelines IA Ceci s'effectuera dans un contexte de bascule des données de la base DB2 à la cible POSTGRE. dans une code base de nouvelle GDC (qui cohabite encore avec GDC legacy).
Mission freelance
Développeur confirmé DATABRICKS (Lyon)
SQLI
Publiée le
Azure Data Factory
Java
1 an
450-560 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un développeur confirmé Databricks. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Offre d'emploi
Développeur Python IA
VISIAN
Publiée le
Agent IA
Natural Language Processing (NLP)
Python
1 an
Paris, France
Vous serez en charge du développement, de l'intégration et de l'optimisation des modèles d'intelligence artificielle pour les différents use cases métiers. Vous travaillerez en mode agile en proximité avec les Data Scientists, les architectes solutions, les équipes métier et IT des autres filiales de la banque. Vous aurez un rôle clé dans l'industrialisation et le déploiement des solutions IA en production. Expert en vibe coding, vous maîtrisez parfaitement les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer le développement tout en maintenant des standards de qualité élevés. Vous êtes capable de décomposer des problèmes complexes en instructions claires pour l'IA et de valider/optimiser le code généré. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
Mission freelance
Développeur Data ETL
Lùkla
Publiée le
ETL (Extract-transform-load)
2 ans
400-600 €
Paris, France
En tant que Développeur Data ETL: Contribuer au développement, à la livraison et à la maintenance des applications Talend ou Informatica Participer à la conception, aux tests et la documentation de la nouvelle solution Veiller à la conformité selon les meilleures pratiques de développement et directives de sécurité. Livrables attendus: Atelier, conception et documentation de conception Développement d’applications, tests unitaires et livraison Prise en charge des phases UAT Technologies : Talend, Informatica PowerCenter & IDMC, Oracle, Unix.
Mission freelance
249595/DATA Q Ingenieur - Snowflake , Dataiku , 'ELT ou ETL, Python et SQL
WorldWide People
Publiée le
Snowflake
6 mois
Saint-Denis, Île-de-France
DATA Q Ingenieur - Snowflake Confirmed, Maitrise de Dataiku Confirmed, Familier avec le concept d'ELT ou ETL Expert, Modélisation de données Confirmed, Expertise SQL, Python Expert, Connaissance technique de l'environnement Data (architecture medaillon, principe des data mesh) Confirmed , Votre rôle axé Analytics Engineer sera de : - Transformer, modéliser et documenter les données brutes pour les rendre exploitables - Développer des modèles et produits de données axés conformité pour alimenter la base graphe en partant des données brutes des applications - Maintenir en condition opérationnel nos flux d'ingestion vers la base de données graphes - Améliorer des processus de traitement des données pour gagner en rapidité et en efficacité. - Créer et mettre à jour de la documentation pour aider à l’utilisation des produits de données. - Automatiser des tests de contrôle et surveillance de la qualité pour garantir l’intégrité des données traitées. - Produire des analyses à destination de nos métiers pour le calibrage de scénarios de fraude ou vigilance LCB-FT - Collaborer avec les différentes parties prenantes (notamment les Data Engineers et les métiers de la fraude et LCB-FT) pour enrichir les données de la base de données graphes en fonction de leur besoin - Collaborer avec l'équipe Data Plaform en mettre en production les différents produits de données"
Offre d'emploi
ML Engineer Google Cloud (Python, Vertex AI, BigQuery) – H/F
SMARTPOINT
Publiée le
BigQuery
Google Cloud Platform (GCP)
IA
1 an
50k-70k €
480-640 €
Île-de-France, France
Dans le cadre de l’amélioration de la personnalisation de l’expérience utilisateur , nous constituons une équipe dédiée aux sujets de machine learning et de recommandation en production . Cette équipe data est composée : d’un Product Owner d’un Data Scientist d’un Lead ML Engineer d’un Machine Learning Engineer L’environnement technique repose principalement sur Google Cloud Platform avec notamment : Python Vertex AI BigQuery Cloud Run Airflow API REST Terraform GitLab CI/CD L’objectif est de concevoir, industrialiser et déployer des solutions de machine learning en production , tout en assurant leur performance et leur scalabilité. Missions Au sein de l’équipe data et ML, vous interviendrez sur l’ensemble du cycle de vie des projets de machine learning en production . Cas d’usage et mise en production Concevoir un premier cas d’usage de personnalisation de l’expérience utilisateur Déployer les modèles en production sur Google Cloud Mettre en place des tests A/B pour mesurer l’impact des recommandations Assurer le monitoring et l’évaluation des performances des modèles Industrialisation des modèles IA Concevoir et maintenir des pipelines machine learning robustes et scalables Mettre en place les architectures MLOps Exposer les modèles via des API REST (FastAPI ou Flask) Industrialiser les modèles développés par les Data Scientists Mettre en place des workflows CI/CD Architecture et infrastructure data Structurer et organiser le stockage des données Garantir la scalabilité, la sécurité et la stabilité des environnements Déployer des infrastructures via Infrastructure-as-Code (Terraform) Collaborer avec les Data Engineers et équipes techniques Collaboration et amélioration continue Participer aux phases de cadrage, planification et delivery Contribuer à la documentation technique Réaliser une veille technologique sur les technologies ML et IA Appliquer les bonnes pratiques de développement et d’architecture data
Mission freelance
Chef de projet flux Data et Migration SI
NEXORIS
Publiée le
Powershell
SFTP (Secure File Transfer Protocol)
6 mois
500 €
Paris, France
Missions Notre client, un groupe bancaire, recherche un Chef de projet flux data et migration SI (H/F) afin de piloter et mettre en place avec une filiale les flux de données entre son SI et le nouvel outil de consolidation financière Groupe en mode SaaS. Le consultant devra suivre, piloter et mettre en œuvre le chantier de mise en place de flux entre l’écosystéme de notre Client et l’outil SaaS cible. Les tâches peuvent se résumer ainsi : - Pilotage et suivi de projet : Cadrage de l’adaptation des flux SFTP dans le cadre d’un changement d’outil de consolidation Collaborer avec les Architectes data et les équipes développement/intégration pour la conception des flux et des jobs Piloter le planning de migration des flux (pilot, pré-prod, prod) et les fenêtres de bascule Suivre la mise en place des NAS avec l’infogéreur - Mise en oeuvre : Ecrire / coder des scripts en PowerShell (niveau de complexité moyenne) Documenter l’architecture et les flux Documenter le fonctionnement et le processus
Mission freelance
Business analyst ERP / data
Pickmeup
Publiée le
Business Analyst
6 mois
500-650 €
Bordeaux, Nouvelle-Aquitaine
Dans le cadre d’un programme de transformation structurant, notre client lance un projet d’harmonisation de ses systèmes de gestion à l’échelle internationale, avec la mise en place d’un ERP Cloud unique. L’objectif est de standardiser les processus métiers et les outils sur plusieurs zones géographiques (Europe, Amérique du Nord, filiales internationales), couvrant notamment les fonctions industrielles, financières ainsi que les activités commerciales liées aux pièces et consommables. Au sein de l’équipe projet, vous intervenez en tant que Business Analyst et assurez le lien entre les équipes métiers et les équipes techniques. Vous contribuez directement à la bonne compréhension des besoins et à la qualité de leur mise en œuvre. Description du poste Cadrage et conception Analyser les processus existants et contribuer à la définition des processus cibles Participer aux ateliers avec les équipes métiers afin d’aligner les besoins avec les standards de la solution Challenger les pratiques actuelles pour favoriser l’adoption de solutions pérennes Recueil et formalisation des besoins Rédiger les spécifications fonctionnelles sous forme de user stories Structurer et prioriser les demandes en lien avec les parties prenantes Assurer la bonne compréhension des besoins par les équipes techniques Recette et validation Définir les scénarios de test et organiser les campagnes de recette Participer aux phases de tests (intégration et acceptation utilisateur) Suivre les anomalies et valider les correctifs Data et migration Contribuer aux travaux de reprise de données (analyse, mapping, nettoyage) Veiller à la qualité et à la cohérence des données migrées Coordination et accompagnement Assurer le rôle d’interface entre les équipes métiers et IT Suivre l’avancement des développements et communiquer auprès des parties prenantes Accompagner les utilisateurs dans la conduite du changement Support et documentation Participer au support fonctionnel de premier niveau Maintenir une documentation projet claire et à jour Livrables attendus Backlog fonctionnel (user stories, règles de gestion, mapping) Plans de test et cahiers de recette Dossiers d’arbitrage pour les évolutions Documentation projet structurée Langues Anglais professionnel requis Qualités Bon relationnel et sens de la communication Capacité à synthétiser et vulgariser Rigueur et sens de l’organisation Esprit d’équipe
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2536 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois