L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 762 résultats.
Offre d'emploi
Consultant AMOA DATA / IA H/F
Le Groupe SYD
Publiée le
AMOA
Data science
Intelligence artificielle
12 mois
40k-50k €
375-475 €
Nantes, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à Nantes (44), deux Consultant AMOA Data/IA H/F . Démarrage : ASAP Lieu : Nantes (44) Télétravail : 2 jours/semaine (non-négo) 👉 Dans le cadre de sa transformation numérique, notre client recherche deux Consultant(e)s AMOA Data/IA . À ce titre, vos missions seront : Identifier et cadrer les opportunités de projets IA à forte valeur Acculturer et former les équipes métiers aux enjeux de l’IA Accompagner le développement et le déploiement des solutions IA Identifier et lever les freins à l’adoption des outils IA Renforcer la collaboration entre les équipes métiers et les équipes IT IA
Offre d'emploi
Développeur Python/ Data & IA H/F
CELAD
Publiée le
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur Python/ Data & IA H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez sur un projet innovant autour de la conception et de la validation d’un modèle de données complexe dédié à l’analyse d’impacts environnementaux. Dans ce cadre, vous travaillez sur un écosystème logiciel en Python structuré autour d’un méta-modèle de données, avec des enjeux forts de qualité, de cohérence et de validation scientifique. Votre rôle consiste à tester, analyser et faire évoluer ce modèle ainsi que les chaînes d’import de données, dans un environnement collaboratif intégrant des outils d’intelligence artificielle. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Analyser et comprendre un modèle de données existant et ses mécanismes - Tester de manière critique les chaînes d’import de données (YAML, Excel) - Développer et améliorer des fonctionnalités en Python - Mettre en place et exécuter des tests automatisés (pytest) - Utiliser des outils d’assistance au développement par IA (Copilot, Cursor…) - Documenter les résultats, anomalies et axes d’amélioration
Mission freelance
Développeur Python/ Data & IA H/F
CELAD
Publiée le
1 an
380-450 €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur Python/ Data & IA H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez sur un projet innovant autour de la conception et de la validation d’un modèle de données complexe dédié à l’analyse d’impacts environnementaux. Dans ce cadre, vous travaillez sur un écosystème logiciel en Python structuré autour d’un méta-modèle de données, avec des enjeux forts de qualité, de cohérence et de validation scientifique. Votre rôle consiste à tester, analyser et faire évoluer ce modèle ainsi que les chaînes d’import de données, dans un environnement collaboratif intégrant des outils d’intelligence artificielle. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Analyser et comprendre un modèle de données existant et ses mécanismes - Tester de manière critique les chaînes d’import de données (YAML, Excel) - Développer et améliorer des fonctionnalités en Python - Mettre en place et exécuter des tests automatisés (pytest) - Utiliser des outils d’assistance au développement par IA (Copilot, Cursor…) - Documenter les résultats, anomalies et axes d’amélioration
Offre d'emploi
ALTERNANCE - Assistant Chef de Projet Data & BI (H/F)
█ █ █ █ █ █ █
Publiée le
Laravel
SQL
Pantin, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Architecte Data (H/F)
Insitoo Freelances
Publiée le
Angular
Java
Jenkins
2 ans
500-595 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data (H/F) à Lyon, France. Contexte : La présente consultation concerne une application dont les principaux enjeux pour l’année 2026 sont les suivants : Finaliser la reprise des fonctionnalités de l’application historique de télédiagnostic pour permettre son décommissionnement. Récupérer dans l'application l’ensemble des séries de matériel. Poursuivre les évolutions attendues par les activités. Poursuivre l’amélioration de l’exploitation de l’application. Traiter la MCO corrective et préventive, dont des chantiers techniques d’anticipation de l’obsolescence ou de cybersécurité. Les missions attendues par le Architecte Data (H/F) : L’architecte data a pour mission de réaliser la conception technique générale et détaillée sur le périmètre précité, d’accompagner techniquement l’équipe et de développer les programmes sur le périmètre précité, dans l’objectif de mettre à disposition des fonctionnalités à forte valeur ajoutée en respectant les enjeux planning des clients. Il veille à la bonne utilisation des systèmes et programmes déployés et propose des solutions innovantes lorsque des problèmes techniques ou fonctionnels se présentent. Les tâches de l’architecte data sont principalement : Analyser et challenger les spécifications fonctionnelles produites par le métier et l’équipe projet. Assurer la conception technique de solutions modulaires et évolutives. Rédiger les documents techniques. Accompagner techniquement l’équipe. Estimer les charges de réalisation. Implémenter les programmes de traitements de données. Réaliser les tests techniques et unitaires. Résultats attendus : Respect des coûts et des délais. Mise à disposition de solutions satisfaisantes pour les utilisateurs et les commanditaires. Sécurité, fiabilité, performance, ergonomie des applications, en conformité avec le contrat de service passé avec le métier. Solutions en cohérence avec l’urbanisme du SI.
Offre d'emploi
Business Analyst DATA / AMOA - Niort (H/F)
STORM GROUP
Publiée le
Informatica
Oracle
3 ans
45k-55k €
400-450 €
Niort, Nouvelle-Aquitaine
• Recueillir et analyser les besoins métiers, • Apporter le conseil nécessaire aux direction Métier sur l’exploitation de la donnée, • Participer au cadrage des projets Data (études d’impacts, faisabilité) • Contribuer aux études d’opportunité et de faisabilité sur le volet Data, • Garantir la cohérence fonctionnelle et technique du SI • Réaliser les recettes fonctionnelles, qualifier les anomalies et suivre les corrections • Produire des livrables fonctionnels (modélisations de données, SFG, SFD), • Tenir à jour la base documentaire du patrimoine, • Garantir la bonne satisfaction métier Data (qualité, engagement, cout, délai).
Offre d'emploi
Scrum Master Data Senior
Tritux France
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps
3 ans
54k-58k €
550-580 €
Paris, France
Objectifs de la mission : Uniformiser les pratiques Agile sur l’ensemble du périmètreStabiliser et sécuriser les cycles de sprint Améliorer la qualité du backlog et des User Stories · Structurer les processus de production, d’arbitrage et de communication Mettre en place un pilotage clair : capacité, consommés, KPIs, roadmap Assurer la synchronisation et la gestion des dépendances inter squads Périmètre d’intervention Animation des rituels : daily, refinements, poker plannings, sprint plannings, reviews, rétros Vision prévisionnelle de la capacité et du backlog sur les prochains sprints · Construction d’une roadmap consolidée Amélioration de la qualité des US : découpage, prérequis, critères d’acceptation Mise en place / harmonisation de la Definition of Ready et Definition of Done Alignement des pratiques entre les équipes · Production des release notes et mise en place des KPIs de delivery Standardisation des checklists de livraison / reprise de données (UAT, OAT, PRD) · Analyse de charge, détection d’anomalies, gestion proactive des risques · Mise en place d’un reporting clair et régulier vers la Data Factory.
Offre d'emploi
Data Analyst Sur Le Havre
EterniTech
Publiée le
Elasticsearch
Microsoft Power BI
Qlik
3 mois
Le Havre, Normandie
Je cherche pour un de mes clients un Data Analyst / Data Engineer qui interviendra sur la définition, la mise en place et l’évolution de solutions de gestion de données , en assurant l’ingénierie, l’analyse et la valorisation des données pour répondre aux besoins métiers. Missions principales : Définir, mettre en place et faire évoluer des datalakes et datawarehouses Ingénierie et intégration de données pour le jumeau numérique et l’ IA Développer des modèles de data science adaptés aux besoins métiers Produire des tableaux de bord et valoriser les données via les outils BI ( Qlik, Microsoft Power BI ) Consolider et développer le catalogue de données existant Mettre en œuvre et optimiser des moteurs de recherche et d’indexation avancée ( Elasticsearch – expertise obligatoire ) Activités transverses : Analyser l’existant et conduire des ateliers méthodologiques Préconiser normes et standards technologiques Définir, dimensionner et chiffrer des solutions Mettre en œuvre des pipelines de données et des architectures big data Suivre la mise en œuvre et assister les équipes projet Assurer le transfert de compétences et l’accompagnement méthodologique Rédiger rapports d’études, cahiers des charges techniques et documentations Réaliser des audits et améliorer les processus Effectuer la veille technologique et fournir du conseil stratégique
Mission freelance
Cadrage risques & data (BCBS 239)
Mon Consultant Indépendant
Publiée le
Data Strategy
Gestion de projet
4 mois
650-700 €
Paris, France
Dans le cadre de la transformation de ses fonctions de contrôle, un acteur de premier plan du Crédit à la Consommation souhaite définir et structurer sa future Plateforme Risque Cible. L'enjeu est double : moderniser l'infrastructure technologique pour intégrer les opportunités offertes par l'Intelligence Artificielle (automatisation des contrôles) tout en garantissant une conformité stricte aux exigences réglementaires, notamment BCBS 239. La mission s'inscrit dans un environnement transverse, nécessitant une synergie forte entre la Direction des Risques, les équipes Data et l'IT. Objectifs et Périmètre L'objectif central est de réaliser une analyse d'écarts (gap analysis) entre l'existant et la cible, puis de concevoir la feuille de route opérationnelle pour la mise en œuvre du dispositif. Le périmètre prioritaire est le Risque de Crédit, incluant également les risques financiers, de valeur résiduelle et opérationnels. Descriptif des interventions Phase 1 : Diagnostic et Analyse de l'Existant · Recueil des besoins : Animation d'ateliers avec les équipes Risques pour identifier les attentes et les leviers d'amélioration. · Audit des "Pain Points" : Identification des points de friction du dispositif actuel (processus, outils, qualité de donnée). · Benchmark de place : Analyse comparative des pratiques du secteur (organisation, gouvernance) et veille sur les cas d'usage de l'IA dans la gestion des risques. Phase 2 : Définition de la Cible (Target Operating Model) · Scénarios de Plateforme : Proposition de différents scénarios d'architecture et de services pour la plateforme cible. · Gouvernance des Données : Définition de la chaîne de responsabilité, de validation et de gouvernance de la donnée. · Pilotage : Spécification des tableaux de bord de suivi de la qualité des données (du niveau opérationnel jusqu’au Corporate Center). · Organisation & RH : Estimation des besoins en effectifs (FTE) et cartographie des compétences nécessaires pour opérer la cible. Phase 3 : Cadrage Opérationnel et Plan de Déploiement · Feuille de route : Élaboration d'un plan d'actions structuré par chantiers. · Gestion des dépendances : Articulation étroite avec le programme interne spécifique et les impératifs du projet BCBS 239. · Planning & Gouvernance Projet : Définition des jalons clés, des étapes de validation interne et mise en place des instances de pilotage. 4. Livrables attendus · Rapport d’analyse d’écarts et benchmark de place. · Dossier de définition de la plateforme cible et de l’organisation associée. · Schéma de gouvernance et de responsabilité des données. · Feuille de route détaillée (Roadmap) et planning d'implémentation. · Estimation budgétaire et dimensionnement des équipes (FTE). 5. Profil recherché · Expertise Métier : Solide expérience en gestion des risques (Crédit, Valeur Résiduelle, Opérationnel) dans le secteur financier. · Expertise Réglementaire : Maîtrise approfondie des exigences BCBS 239. · Culture Data/IA : Capacité à projeter l'utilisation de l'IA pour l'industrialisation des contrôles métiers. · Soft Skills : Excellence en gestion de projets transverses, capacité à fédérer des interlocuteurs variés (Risque, Finance, IT, Data). · Atout majeur : Expérience opérationnelle dans le secteur du crédit à la consommation automobile (captives).
Mission freelance
Data Engineer expérimenté (H/F) - Nantes
CAT-AMANIA
Publiée le
Ansible
Data Engineering
Data Warehouse
1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data stratégique, nous recherchons un Data Engineer expérimenté pour intervenir sur des projets à forte valeur ajoutée autour d’un socle data en constante évolution. Vous intégrerez une équipe agile composée d’experts data, d’un Scrum Master et d’un Product Owner, dans un environnement collaboratif axé sur l’innovation et l’excellence technique. La mission s’inscrit dans une dynamique combinant : Build : conception et développement de solutions data Run : maintien en conditions opérationnelles et optimisation continue Migration : accompagnement des évolutions techniques (notamment ETL → ELT) Modernisation : transformation vers des architectures data modernes Vos missions principales : Développer des traitements ELT (principalement xDI) pour alimenter un Datawarehouse Maintenir et faire évoluer les templates techniques Participer à la roadmap de migration (ETL vers ELT) Accompagner les équipes utilisatrices des solutions data Documenter les solutions mises en place Garantir la performance et la stabilité des traitements en production Identifier et proposer des optimisations dans une logique d’amélioration continue Partager vos connaissances et contribuer à la montée en compétence de l’équipe
Offre d'emploi
Chef de projet Data - Junior
HN SERVICES
Publiée le
Data analysis
Informatica
32k-43k €
Paris, France
Contexte de la mission Dans le cadre du remplacement d’un Chef de Projet Data, vous interviendrez au sein d’un grand acteur du secteur bancaire. Vous évoluerez dans un environnement transverse, en collaboration étroite avec les équipes métiers, techniques et les responsables applicatifs, sur des projets stratégiques autour de la data et des plateformes applicatives. Vos missions Piloter des projets data de bout en bout (de l’expression de besoin à la mise en production) Mettre en œuvre et suivre les méthodologies Agile Coordonner les échanges entre les équipes : développeurs, architectes, production, RSSI et métiers Participer à la construction d’architectures data hybrides et à l’intégration via API Contribuer à l’amélioration et au renforcement des applications existantes Réaliser des audits métiers (notamment communication) Organiser et animer les instances de gouvernance ( COPIL, COPROJ ) Garantir le respect des normes (CI/CD, méthode Tempo, sécurité, exigences DORA) Rédiger et suivre les dossiers d’architecture et de sécurité (ISP)
Offre d'emploi
Ingénieur réseau et sécurité H/F
HAYS France
Publiée le
Toulouse, Occitanie
Vos missions sont les suivantes : Assurer le lead technique des lignes LAN et WAN, en apportant une expertise avancée. Être l'interlocuteur principal interne et client sur les aspects techniques. Supporter les équipes N3 et intervenir en gestion de crise si nécessaire. Collaborer avec le responsable opérationnel pour résoudre les incidents complexes. Participer à la veille technologique et proposer des améliorations. Contribuer aux activités Run et Build, et participer aux réunions avec le client. Assurer le reporting auprès du directeur des opérations.
Offre premium
Offre d'emploi
Data Analyst Monétique
Lùkla
Publiée le
Azure
Data analysis
Google Cloud Platform (GCP)
6 mois
30k-80k €
400-550 €
75000, Paris, Île-de-France
Nous recherchons dans le cadre d'un programme gagné des data analysts qui rejoindront une datafactory dont le rôle est : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement,
Offre d'emploi
Expertise Kafka / DATA ENGINEERING
Digistrat consulting
Publiée le
Apache Kafka
ELK
3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Expert kafka 💡Description détaillée Le contexte de la mission : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA 💡Principales technologies utilisées : • Kafka => IMPERATIF • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Mission freelance
DevOps / ETL Data Engineee - Banque
STHREE SAS
Publiée le
6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site / semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Votre mission Au sein d'une équipe Agile, vous intervenez sur des projets data à forts enjeux. Votre rôle consiste à concevoir, développer et maintenir des chaînes de traitement de données fiables, performantes et sécurisées. Vous participez à l'ensemble du cycle de vie : analyse fonctionnelle et technique, développement ETL, tests et contrôles qualité, livraison et support aux équipes de production. 🛠️ Vos responsabilités Développer et paramétrer des traitements ETL Rédiger des scripts SQL et Shell Produire les livrables : code, documentation, jeux de tests Participer aux cérémonies Agile (backlog, grooming, démos) Collaborer avec les équipes IT et métiers Garantir la qualité, la performance et la conformité des solutions Contribuer à l'amélioration continue de l'équipe ✅ Profil recherché Expérience confirmée en ETL (Datastage ou équivalent) Bonne maîtrise du SQL Connaissances en Shell scripting À l'aise dans un environnement Agile Rigueur, sens des responsabilités, esprit d'équipe Anglais professionnel requis ⭐ Pourquoi rejoindre cette mission ? Environnement international et structuré Projets data critiques à forte valeur Équipe Agile mature Bon équilibre présentiel / télétravail
Mission freelance
Consultant data tracking & analytics
SMH PARTICIPATION
Publiée le
BigQuery
Google Tag Manager
Javascript
6 mois
100-380 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Au sein de la Direction du Digital et des Systèmes d'Information . Avec l'équipe en charge de la collecte, de la transformation et de la restitution des données collectées sur les canaux digitaux. Nous recherchons une prestation sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery). Objectifs et livrables Exploitation des données Le fonctionnement en mode SAFe implique des livraisons à fréquences régulières. Dans ce cadre, de nouvelles données sont créées en permanence et nécessitent d’être mises à disposition pour répondre aux besoins de reporting. Les missions sont : Collaborer avec les autres membres de l’équipe sur les données nécessaires à la mesure des features : définition des objectifs / KPI’s Accompagner dans la définition des besoins en tracking Recetter les données lorsque la feature est en phase de test Recetter les données après la mise en production de la feature Préparer et ingérer des données dans Big Query (en Node JS) Mise à disposition des données fiabilisées dans Looker Studio Participer à l’analyse des données produites, en tirer des enseignements En complément : Veiller au bon fonctionnement de l’ingestion de données quotidiennes, appliquer un correctif si nécessaire Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train Gérer et optimiser Les notions d’analyse et d’amélioration sont centrales pour accompagner le développement du train, ainsi il est aussi demandé de : Participer à l’analyse des données issues des monitoring afin d’en tirer des enseignements Participer à l’amélioration continue (dans les tracking, les process ou le fonctionnement de l’équipe) Communiquer et proposer Les déploiements en mode agile nécessite une organisation pluri-métier autour de la roadmap du train, la communication avec les autres est une notion clé. Nous recherchons un profil qui : Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features Pour les compétences demandées, il faut créer Piano Analytics à la place de Adobe Analytics
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- J'ai lancé un outil IA pour automatiser la rédaction pro des freelances — vos retours ?
- Mission validée en freelance, ESN veut basculer en CDI : que faire ?
- profil effacé
- Etat du marché 2026: rebond ou stagnation ?
- Déclaration TVA suite dépassement plafond
- Nouveau volet social dans la déclaration d'impôts sur le revenu
5762 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois