Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 567 résultats.
Freelance
CDI
CDD

Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python

IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks

8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Freelance
CDI

Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance

VISIAN
Publiée le
Architecture
Data management

3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe
CDI

Offre d'emploi
Consultant AMOA Data / Recette fonctionnelle H/F

Mon Consultant Indépendant
Publiée le
AMOA
API
JSON

50k-60k €
Paris, France
Je recherche un(e) consultant(e) pour intervenir chez l'un des clients, acteur majeur du secteur assurance / protection sociale, engagé dans un programme de transformation Data structurant. Vous intervenez directement chez le client, intégré(e) à l'équipe projet de la direction métier concernée. Vous êtes le relais opérationnel entre les équipes métier, les équipes Data et la DSI sur l'ensemble des chantiers Data qui vous sont confiés. Ce que fait le client : Le client déploie une feuille de route Data ambitieuse : structuration des référentiels, fiabilisation des flux, consolidation d'une plateforme de données, montée en qualité de la donnée. Plusieurs dizaines de projets sont en cours simultanément, à différents stades d'avancement. La direction métier qui porte ces projets a besoin de renfort pour tenir la cadence sur le cadrage des besoins, la formalisation des spécifications, la documentation des flux et surtout la recette fonctionnelle. Ce que vous faites concrètement : Vous prenez en charge, en binôme avec l'équipe projet interne, plusieurs chantiers Data de bout en bout côté MOA. En phase de cadrage : vous animez les ateliers avec les métiers et la DSI, vous formalisez les expressions de besoin, vous documentez les flux de données (sources, transformations, règles de gestion, contrôles qualité, destinations), vous produisez les dossiers de cadrage et les cahiers des charges. En phase de recette — et c'est le cœur du poste — : vous concevez les plans de test, définissez les cas de test et les jeux de données, exécutez les campagnes UAT, qualifiez les anomalies, en assurez le suivi jusqu'à résolution, validez la conformité des livrables, produisez les PV de recette. En transverse : vous participez aux instances de pilotage, produisez le reporting d'avancement, identifiez les risques, facilitez la circulation de l'information entre métier, Data et IT. Ce qu'on attend de vous : Sur le plan technique : Vous savez manipuler et analyser des données. SQL est un outil quotidien pour vous, pas un mot-clé sur un CV. Vous comprenez les architectures de données, les flux d'échange (ETL, APIs, XML, JSON), les modèles de données et les schémas de flux. Vous savez les lire, les questionner, les documenter. Vous maîtrisez les concepts de qualité de données : contrôles, fiabilisation, réconciliation, cohérence entre référentiels. Sur le plan fonctionnel : Vous avez une expérience solide en rédaction de spécifications fonctionnelles et techniques. Vous avez déjà piloté et exécuté des recettes fonctionnelles complexes sur des projets Data. Pas survolé le sujet : réellement conçu les plans de test, joué les cas, qualifié les anomalies, tenu le suivi jusqu'au bout. Vous savez naviguer entre des interlocuteurs métier qui raisonnent en règles de gestion et des interlocuteurs techniques qui raisonnent en modèles et en flux. Vous faites le lien sans déformer. Sur le plan comportemental : Vous êtes rigoureux dans la production documentaire. La mission génère beaucoup de livrables : expressions de besoin, comptes-rendus, cahiers de recette, PV, reporting. Chacun doit être exploitable. Vous êtes autonome. Vous n'attendez pas qu'on vous dise quoi faire sur chaque sujet. Vous comprenez le contexte, vous avancez, vous alertez quand c'est nécessaire. Vous communiquez clairement, aussi bien en atelier qu'en comité de pilotage. Ce qui fait la différence : Une connaissance du secteur assurance, protection sociale ou d'un environnement réglementé comparable. Une expérience sur des projets de type DataPlatform ou impliquant des volumes importants de flux et de référentiels. Une familiarité avec des dispositifs comme la DSN, la MSA, le SNGI ou l'AGIRA. Cadre de la mission : Démarrage : mai 2026 Durée : jusqu'à fin décembre 2026 Charge : temps plein Localisation : Paris intra-muros, avec possibilité de distanciel partiel selon organisation convenue avec le client
Freelance

Mission freelance
[SCH] Data Ops - 1468

ISUPPLIER
Publiée le

10 mois
300-345 €
Niort, Nouvelle-Aquitaine
Dans le cadre de ses activités Data, le client souhaite renforcer l’industrialisation et l’automatisation de l’exploitation informatique autour des flux de données et de leur orchestration. La mission consiste à mettre en place des outils et des méthodes permettant d’améliorer la gestion des pipelines Data, tout en assurant une meilleure collaboration entre les équipes de développement et d’exploitation. Le consultant interviendra notamment sur l’intégration des pratiques d’infrastructure as code dans les processus d’orchestration des données, ainsi que sur l’optimisation des chaînes CI/CD. Une attention particulière sera portée à la fiabilisation des déploiements, à la gestion des versions des configurations, ainsi qu’au monitoring des assets en lien avec les équipes d’exploitation. Le consultant participera également à la configuration des environnements, notamment via les runners GitLab, afin de garantir la continuité des déploiements. Objectifs et livrables : -Concevoir et maintenir des services d’assistance FINOPS, notamment autour de l’observabilité -Mettre en place et optimiser les pipelines CI/CD et les tests automatisés -Assurer la configuration et la gestion des runners GitLab -Garantir la gestion des versions et la reproductibilité des déploiements -Mettre en place des solutions de monitoring des assets Data -Accompagner les équipes d’exploitation sur les bonnes pratiques, outils et technologies -Rédiger et maintenir la documentation technique (configurations, processus, workflows)
Freelance
CDI

Offre d'emploi
Data Engineer

TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL

12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
CDI

Offre d'emploi
Consultant AMOA Data / Recette fonctionnelle

Mon Consultant Indépendant
Publiée le
Gestion de projet

40k-50k €
Paris, France
Je recherche un(e) consultant(e) pour intervenir chez l'un des clients, acteur majeur du secteur assurance / protection sociale, engagé dans un programme de transformation Data structurant. Vous intervenez directement chez le client, intégré(e) à l'équipe projet de la direction métier concernée. Vous êtes le relais opérationnel entre les équipes métier, les équipes Data et la DSI sur l'ensemble des chantiers Data qui vous sont confiés. Ce que fait le client : Le client déploie une feuille de route Data ambitieuse : structuration des référentiels, fiabilisation des flux, consolidation d'une plateforme de données, montée en qualité de la donnée. Plusieurs dizaines de projets sont en cours simultanément, à différents stades d'avancement. La direction métier qui porte ces projets a besoin de renfort pour tenir la cadence sur le cadrage des besoins, la formalisation des spécifications, la documentation des flux et surtout la recette fonctionnelle. Ce que vous faites concrètement : Vous prenez en charge, en binôme avec l'équipe projet interne, plusieurs chantiers Data de bout en bout côté MOA. En phase de cadrage, vous animez les ateliers avec les métiers et la DSI, vous formalisez les expressions de besoin, vous documentez les flux de données (sources, transformations, règles de gestion, contrôles qualité, destinations), vous produisez les dossiers de cadrage et les cahiers des charges. En phase de recette — et c'est le cœur du poste — vous concevez les plans de test, définissez les cas de test et les jeux de données, exécutez les campagnes UAT, qualifiez les anomalies, en assurez le suivi jusqu'à résolution, validez la conformité des livrables et produisez les PV de recette. En transverse, vous participez aux instances de pilotage, produisez le reporting d'avancement, identifiez les risques et facilitez la circulation de l'information entre métier, Data et IT. Ce qu'on attend de vous : Sur le plan technique : · Vous savez manipuler et analyser des données. SQL est un outil quotidien pour vous, pas un mot-clé sur un CV. · Vous comprenez les architectures de données, les flux d'échange (ETL, APIs, XML, JSON), les modèles de données et les schémas de flux. Vous savez les lire, les questionner, les documenter. · Vous maîtrisez les concepts de qualité de données : contrôles, fiabilisation, réconciliation, cohérence entre référentiels. Sur le plan fonctionnel : · Vous avez une expérience solide en rédaction de spécifications fonctionnelles et techniques. · Vous avez déjà piloté et exécuté des recettes fonctionnelles complexes sur des projets Data. Pas survolé le sujet : réellement conçu les plans de test, joué les cas, qualifié les anomalies, tenu le suivi jusqu'au bout. · Vous savez naviguer entre des interlocuteurs métier qui raisonnent en règles de gestion et des interlocuteurs techniques qui raisonnent en modèles et en flux. Vous faites le lien sans déformer. Sur le plan comportemental : · Vous êtes rigoureux dans la production documentaire. La mission génère beaucoup de livrables : expressions de besoin, comptes-rendus, cahiers de recette, PV, reporting. Chacun doit être exploitable. · Vous êtes autonome. Vous n'attendez pas qu'on vous dise quoi faire sur chaque sujet. Vous comprenez le contexte, vous avancez, vous alertez quand c'est nécessaire. · Vous communiquez clairement, aussi bien en atelier qu'en comité de pilotage. Ce qui fait la différence : · Une connaissance du secteur assurance, protection sociale ou d'un environnement réglementé comparable. · Une expérience sur des projets de type DataPlatform ou impliquant des volumes importants de flux et de référentiels. · Une familiarité avec des dispositifs comme la DSN, la MSA, le SNGI ou l'AGIRA. Cadre de la mission : · Démarrage : mai 2026 · Durée : jusqu'à fin décembre 2026 · Charge : temps plein · Localisation : Paris intra-muros, avec possibilité de distanciel partiel selon organisation convenue avec le client
Freelance

Mission freelance
Lead Delivery IA

Sapiens Group
Publiée le
GenAI
MLOps

12 mois
500-520 €
Lille, Hauts-de-France
Responsabilités principales 1. Cadrage et qualification des cas d’usage Animer les ateliers de cadrage avec les métiers Évaluer la faisabilité fonctionnelle et l’effort de delivery Définir les critères de succès (valeur, adoption, qualité, risques) Intégrer les exigences liées aux données, à la traçabilité et aux contrôles 2. Pilotage du delivery & coordination multi-acteurs Construire et piloter le plan de delivery (jalons, sprints, capacité, risques) Orchestrer l’ensemble des parties prenantes (métiers, IT, data, IA) Garantir la qualité des livrables fonctionnels (backlog, spécifications, comptes-rendus de décisions) 3. Recette & décision go/no-go Préparer et animer les revues de jalons Organiser la recette fonctionnelle (UAT) et définir les critères d’acceptation Coordonner les validations finales avec les parties prenantes 4. Adoption, déploiement & mesure de la valeur Définir et piloter le plan de déploiement (pilote, généralisation, support) Contribuer à la formation, communication et support avec le Performance Lab Mettre en place et suivre les KPI d’usage (adoption, fréquence, satisfaction) Mesurer la valeur générée (gains de temps, qualité, réduction des risques) Piloter l’amélioration continue via des boucles de feedback 5. Qualité & fiabilité Définir les règles de qualité fonctionnelle des solutions IA Mettre en place des contrôles et un suivi des écarts 6. Industrialisation & réutilisation Capitaliser sur les retours d’expérience (REX) Standardiser les bonnes pratiques (copilots, agents IA, RAG) Contribuer à la création de templates et référentiels de delivery IA Compétences requises Compétences techniques Bonne connaissance des solutions GenAI (copilots, agents IA, RAG) : fonctionnement, limites, hallucinations Compréhension des principes MLOps (niveau utilisateur / consommation) Compréhension fonctionnelle des architectures RAG Connaissance de la structuration des données pour l’IA (Golden Data, référentiels) Compétences transversales Formation Bac +5 (ingénieur, data science, digital, produit ou SI) Expérience en environnement transverse (métiers, DSI, data, IA) Compétences en Product Management : roadmap, backlog, priorisation, MVP Maîtrise des méthodologies Agile (Scrum, Kanban) Pilotage multi-projets et gestion des dépendances Compétences AMOA : expression de besoins, animation d’ateliers, rédaction de spécifications Culture data, IA et processus métiers Langues Français : courant Anglais : intermédiaire (B1/B2) – environnement international Livrables attendus Dossier de cadrage (valeur, périmètre, KPI, risques, dépendances) Backlog et roadmap (priorisation, MVP, jalons) Spécifications fonctionnelles (règles métier, conformité, UX) Plan de recette et procès-verbal (PV) Plan de déploiement et d’adoption (avec Performance Lab) Retours d’expérience (REX) et templates de delivery IA
Freelance

Mission freelance
Power BI : construction et exploitation de tableaux de bord MOA

INSYCO
Publiée le
API
Data governance
DAX

24 mois
500-620 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Expert Power BI Senior pour la construction de tableaux de bord MOA et industrialisation Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/PBI/5292 dans l'objet de votre message La direction MOA d'un grand groupe audiovisuel français travaille à la réalisation de tableaux de bord sous Power BI pour plusieurs domaines fonctionnels : contrôle interne, achats, immobilier et services généraux. Ces tableaux comportent des indicateurs opérationnels et des indicateurs stratégiques. Le processus en place consiste à réaliser des prototypes non industrialisés côté MOA, avant de les confier à l'équipe IT pour industrialisation. La prestation a pour objectif de réaliser ces prototypes pour le compte des chefs de projets fonctionnels concernés, avec un double objectif : qu'ils soient opérationnels pour les équipes métier et prêts à être industrialisés par l'équipe IT. Missions principales Développement Power BI Modéliser les données : création de modèles relationnels, gestion des relations, optimisation des performances Écrire des mesures et colonnes calculées complexes en DAX, optimiser les formules Extraire, transformer et charger les données via Power Query (ETL) Créer des rapports interactifs avec drill-down et filtres dynamiques Calculer des indicateurs (KPI) et réaliser des agrégations temporelles Connecter les rapports à différentes sources de données : SQL Server, Excel, APIs, bases de données Architecture et industrialisation Respecter les bonnes pratiques de développement : nommage, documentation, modularité Concevoir des modèles modulaires facilitant la reprise par l'équipe IT Gérer les versions et assurer le contrôle de source Produire une documentation technique complète des modèles et requêtes Analyse métier et collaboration Traduire les besoins métier en spécifications techniques Distinguer et modéliser les indicateurs opérationnels versus stratégiques Identifier les données pertinentes et leurs sources Collaborer avec les chefs de projets fonctionnels sur les domaines suivants : contrôle interne (conformité, risques, audits), achats (commandes, fournisseurs, budgets, délais), immobilier (patrimoine, occupations, coûts), services généraux (ressources, maintenance, coûts d'exploitation) Respecter les délais de livraison des prototypes Restituer et présenter les livrables aux équipes métier Livrables attendus Prototypes Power BI fonctionnels et testés Documentation technique : modèles de données, dictionnaire des mesures Guide d'utilisation pour les utilisateurs métier Dossier de transfert pour industrialisation par l'équipe IT
Freelance
CDD

Offre d'emploi
Data Governance Lead

Gentis Recruitment SAS
Publiée le
Data Mesh

6 mois
51k-91k €
560-1k €
Luxembourg
Nous recherchons un(e) Data Governance Lead pour piloter la mise en place et l’industrialisation de la gouvernance des données à l’échelle du Groupe, dans un contexte de transformation data stratégique. Rattaché(e) au Chief Data, Analytics & AI Officer (CDAO) , vous serez responsable de définir et déployer un cadre de gouvernance garantissant la qualité, la conformité et la valorisation des données . Vous interviendrez sur des sujets clés tels que les modèles de responsabilité (Data Mesh), la qualité des données, la gestion des métadonnées, la traçabilité et le cycle de vie des données. Vous collaborerez étroitement avec les équipes BI, Data, IA et IT afin d’assurer une utilisation fiable, éthique et performante des données. Vous jouerez également un rôle central dans la mise en conformité avec les réglementations (RGPD, Solvabilité II, CSSF, etc.) et dans l’animation des instances de gouvernance.
Freelance

Mission freelance
Concepteur Développeur C# .NET

INFOTEL CONSEIL
Publiée le
C#

2 ans
300-400 €
Niort, Nouvelle-Aquitaine
Infotel recherche un Concepteur Développeur C# .NET (H/F) disposant d’environ 3 ans d’expérience , afin de rejoindre une équipe projet intervenant sur la maintenance et le support d’une application stratégique. Localisation : Niort Organisation : 3 jours de présence sur site par semaine Démarrage : dès que possible, idéalement fin mars Au sein d’une équipe Agile, vous interviendrez principalement sur des activités de maintenance et d’analyse technique afin de garantir la stabilité et la fiabilité du produit. Vos missions principales seront les suivantes : Traitement des incidents remontés par les utilisateurs ou les équipes internes Maintien en condition opérationnelle de l’application Maintenance du référentiel Annuaire Analyse des logs afin d’identifier les causes racines des anomalies Reproduction des bugs dans un environnement contrôlé pour faciliter leur résolution Participation à l’amélioration continue du produit Rédaction de tickets techniques et de rapports d’incidents Environnement technique : C# / .NET Framework 4.8 Programmation asynchrone (async / await) Git Analyse de logs ELK (connaissance appréciée)
Freelance
CDI

Offre d'emploi
Data Analyst Paiement / Monétique (H/F)

STORM GROUP
Publiée le
Azure
Google Cloud Platform (GCP)
Monétique

3 ans
50k-55k €
450-470 €
Île-de-France, France
Les missions du data analyst sont : • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Animer des groupes de travail avec les sponsors, les business analyst du SI Paiement et les membres de la squad Monétique (data viz, data engineer, business analyst) • Réaliser les recettes des traitements d'intégration et de transformation de données • Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner • Formation et accompagnement des utilisateurs.
CDI

Offre d'emploi
Actuaire - Data Scientist - Prévoyance H/F

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

42k-75k €
Strasbourg, Grand Est

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
INGENIEUR DÉVELOPPEMENT PORTAIL IA

GROUPE ALLIANCE
Publiée le
Docker
Kubernetes
LangChain

72k-79k €
Paris, France
ACCROCHE SI TU TROUVES QUE JARVIS MANQUE DE PERSONNALISATION, CETTE ANNONCE EST FAITE POUR TOI ... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe passionnée par l’intelligence artificielle Concevoir des solutions innovantes et intelligentes Repousser les limites de l'automatisation et du machine learning Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur Protection Sociale, tu participeras à la conception et la mise en oeuvre des améliorations à apporter au portail IA du client afin de répondre aux besoins de ses utlilisateurs.A ce titre tu seras chargé, en lien avec le chef de projet et l'architecte IA, de mettre en oeuvre les pistes d'améliorations et de les documenter afin de permettre ensuite leur maintenance par les développeurs de l'équipe.Tu seras amené à proposer des pistes techniques ou fonctionnelles d'améliorations, ou a les mettre en oeuvre, suite à des dysfonctionnements ou des manques remontés par les utilisateurs.Tu seras aussi en charge, en lien avec le chef de projet, de versionner la prise en compte des modifications et de veiller au bon déploiement et à la bonne recevabilité par les utilisateurs du portail IA.Cette prestation pourra impliquer de collaborer avec d'autres compétences d’experts techniques ou fonctionnels, en dehors de l'équipe, en fonction des thématiques traitées Données, tu analyseras Modèles d’IA, tu entraîneras Algorithmes performants, tu développeras Les biais et les dérives, tu limiteras Les meilleures pratiques en IA, tu appliqueras Les performances, tu optimiseras Ton expertise, tu partageras Aux évolutions technologiques, tu contribueras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 10ans minimum Expert(e) en Microsoft AZURE AI Habile avec les outils SFEIR RAISE (RAG/GenAI), Visual Studio Code avec Github COPILOT, MS OFFICE Copilot, Python, Langchain, Docker + Kubernetes, LiteLLM + LLM AI Foundry, React, Typescript, TanStack, Microsoft AZURE AI Foundry, LangGraph, RAGAS, LangFuse, FastAPI + Celery/Redis, Serveurs MCP, Pipelines CI/CD (GitHub/Azure DevOps), Docker + Terraform, Microsoft AZURE API Management, Microsoft AZURE AI Foundry AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
CDI

Offre d'emploi
Data Analyst Financier F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
SQL

Nanterre, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Engineering - DBT / SQL Junior (350€ MAX)

BEEZEN
Publiée le
DBT

6 mois
28k-35k €
280-350 €
Île-de-France, France
La prestation s’inscrit au sein de l’équipe technique et participe à l’industrialisation des flux de données. Ses missions principales sont : ● Ingestion Multi-sources : Développer des connecteurs et des scripts pour collecter des données via API (SaaS, partenaires) ou extractions de bases de données. ● Transformation (ETL/ELT) : Nettoyer, enrichir et structurer les données brutes dans BigQuery pour les rendre exploitables par les analystes et Data Scientists. ● Automatisation & Orchestration : Déployer et monitorer les chaînes de traitement (DAGs) pour garantir la disponibilité et la qualité des données au quotidien. Livrables : ● Pipelines de données opérationnels et documentés. ● Scripts de transformation SQL et Python. ● Confi guration des orchestrateurs (Composer/Airfl ow). ● Documentation des schémas de données cibles." ● Maîtriser DBT pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DBT pour structurer les pipelines data
Freelance
CDI

Offre d'emploi
Data Analyst MSBI

UCASE CONSULTING
Publiée le
Cognos
Microsoft SSIS

12 mois
40k-45k €
400-550 €
Paris, France
Le data Analyst BI a pour mission de consolider les données clients à des fins analytiques et statistiques. Il intervient sur les projets stratégiques : lancement de produit, consolidation financière, étude de risques, suivi d’activité. Dans le cadre de ses missions, il échange avec l’ensemble de l’équipe data et travaille en collaboration étroite avec les experts métiers de la finance, du risque et du marketing pour fournir des données consolidées de qualité. Il sait vulgariser ses travaux pour les partager et comprendre les priorités du métier. Le développement, l’industrialisation et le déploiement de flux de données font partie de ses missions principales. Il est également amené à suivre et à améliorer continuellement la qualité de nos livrables et de notre run. Il travaille dans un contexte agile au sein d’une équipe pluridisciplinaire (Architect, Analyst, Scientist) et d’experts passionnés par la data et les nouveaux usages. Il partage efficacement sur ses travaux en maintenant la documentation de l’équipe à jour et en réalisant des présentations. Enfin il veille en permanence sur les ruptures technologiques et réalise des POC pour mieux les appréhender. Missions : • Challenge, cadrage, chiffrage et priorisation des besoins métiers • Exploration et fouille de données • Industrialisation de traitement • Suivi du RUN • Documentation
2567 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous