Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 619 résultats.
CDI

Offre d'emploi
Product Owner Data F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum

Marseille, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DATA ANALYST - Expert (>10 ans) F/H

SMARTPOINT
Publiée le
Apache Spark
Databricks
DataGalaxy

24 mois
550-580 €
Île-de-France, France
Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts du DataLab. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertise en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
Freelance

Mission freelance
EXPERT POSTE DE TRAVAIL SCCM INTUNE

PROPULSE IT
Publiée le
Intune
SCCM

24 mois
225-450 €
France
Pour l'un de nos clients nous recherchons un profil d'expertise Poste de Travail, dans l'équipe Workplace constitué actuellement de 3 personnes qui gère : - Les demandes, les incidents de niveau 3 - Le Master Windows 10,Windows 11 ( par SCCM) - Les demandes applications - La sécurisation du poste de travail - La gestion de la flotte mobile (iOS, Android) Expertise SCCMIntune : Création et déploiement d'applicationpackaging Création et déploiement de DCM (Configuration Baseline) Expertise Sécurité du Poste de Travail Configuration des policies Intune Création et modification de GPO Analyse du Hardening Une compétence dans le domaine du script en particularité sur PowerShell est importante pour l'analyse, la création d'application ou même de DCM. Une compétence dans le domaine de la mobilité serait un plus pour permettre la sécurisation de la flotte mobile
Freelance

Mission freelance
AI Prompt Engineer

Phaidon London- Glocomms
Publiée le
AI
Data science
Finance

6 mois
400-550 £GB
Bordeaux, Nouvelle-Aquitaine
Conception et optimisation des invites Concevoir, améliorer et maintenir des invites de haute qualité (système, instructions, exemples, etc.). Développer des stratégies d'invites avancées : enchaînement de pensées, interactions multiples, routage, utilisation d'outils. Créer et gérer un référentiel d'invites standardisées pour les principaux cas d'usage du secteur bancaire. Intégration aux produits Collaborer avec les équipes Données et Informatique pour intégrer des invites optimisées aux assistants conversationnels. Gérer le versionnage et le suivi du cycle de vie des invites. Accompagner les équipes métiers dans la définition de leurs besoins et l'identification des cas d'usage d'IA à forte valeur ajoutée. Évaluation et assurance qualité Mettre en œuvre des cadres de test robustes : analyse comparative, analyse des hallucinations, contrôles de précision. Réaliser des tests A/B et mettre en place des outils d'évaluation semi-supervisée. Surveiller et améliorer en continu les performances conversationnelles. Conformité, Sécurité et Gouvernance Garantir la conformité aux exigences réglementaires (secteur bancaire, RGPD, loi sur l'IA). Créer et diffuser des bonnes pratiques pour les équipes métiers.
Freelance

Mission freelance
Conception-Développement (Analyste Oracle E-Business Suite) - Senior H/F

LeHibou
Publiée le
Claude Code
Microsoft Power BI
Oracle EBS

6 mois
550-600 €
Paris, France
Notre client dans le secteur Banque et finance recherche un/une Conception-Développement (Analyste Oracle E-Business Suite) - SeniorH/F Description de la mission: Conception-Développement (Analyste Oracle E-Business Suite) - Senior Contexte et objectif de la mission La mission s’inscrit au sein d’une équipe IT Finance d’environ 18 collaborateurs en charge de la maintenance et du développement des outils informatiques pour la direction financière d’un grand groupe de gestion d’actifs. Dans le cadre des activités de projets et de développement applicatif, un renfort senior est recherché pour renforcer les ressources et expertises de l’équipe sur les activités de projet, de support et de maintenance évolutive. Le système d’information comptable concerné est constitué principalement de : • une plateforme core model autour de l’ERP Oracle E-Business Suite 12.2.8 couvrant les besoins en comptabilité sociale et auxiliaire pour une cinquantaine d’entités réparties dans 17 pays ainsi que la consolidation groupe • un ensemble d’outils périphériques pour la gestion des factures, la trésorerie, le reporting réglementaire, la fiscalité et la justification des comptes • un requêteur comptable OBIEE • un datalake en cours de construction et des outils BI associés, notamment Power BI La feuille de route projet à venir porte notamment sur : • la facturation électronique • des projets de consolidation groupe • la construction d’un entrepôt de reporting comptable • des initiatives IA autour du SI comptable • des évolutions réglementaires • l’intégration de l’IA aux outils de la comptabilité Conditions de la prestation La prestation se déroule en accompagnement de l’équipe de pilotage projets IT pour le compte de la direction financière. L’équipe de rattachement est fonctionnellement et physiquement rattachée à la direction financière. La mission est réalisée dans les locaux du bénéficiaire, du lundi au vendredi, pendant les heures d’ouverture des bureaux. Missions principales / responsabilités Dans le cadre de la maîtrise d’œuvre comptable, en étroite collaboration avec les équipes de la direction financière et la MOA, le prestataire interviendra sur : • le cadrage des besoins évolutifs ou projets • l’analyse des besoins utilisateurs • la rédaction des spécifications techniques • la conception et la réalisation des développements • la contribution aux recettes et aux tests associés • le support aux activités opérationnelles courantes de production • le support utilisateur • le suivi des activités de maintenance Résultats attendus / livrables Les livrables attendus comprennent notamment : • le cadrage des besoins évolutifs ou projets • l’analyse des besoins utilisateurs • les spécifications techniques • les développements réalisés • la contribution aux recettes et tests • un rapport mensuel d’activité établi dans l’outil de suivi d’activité et validé par les parties Pré-requis techniques : • expertise du framework de développement Oracle E-Business Suite • SQL / PL-SQL • BI Publisher • OA Framework • OBIEE • Oracle Workflow • APEX • Oracle Forms • Shell Unix • Git • expertise fonctionnelle du data model Oracle E-Business Suite autour d’un ou plusieurs modules parmi GL, AP, AR, PO, E-Tax, FA et OIE Compétences complémentaires appréciées : • Power BI • outils liés à l’IA et au développement assisté Contexte linguistique Français et anglais.
CDI

Offre d'emploi
Tech Lead IA (F/H)

CELAD
Publiée le

47k-49 999 €
Toulouse, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Toulouse - Au moins 5 ans d’expérience Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Tech Lead IA pour intervenir au sein de notre structure, au sein de notre centre d’expertise d’intelligence artificielle. Contexte : Vous êtes à l’aise avec les modèles de Machine Learning et de Deep Learning… mais surtout, vous savez pourquoi vous les utilisez, comment les évaluer et comment les faire tenir en production ? On devrait se parler. Vous intervenez comme référent technique sur vos sujets IA, avec une vraie responsabilité sur la partie projet et architecture. L’objectif n’est pas seulement de “faire des modèles”, mais de concevoir des solutions IA robustes, utiles et exploitables dans la durée. Voici un aperçu détaillé de vos missions : *Concevoir, entraîner et déployer des modèles en environnement réel * Définir des protocoles d’évaluation rigoureux, alignés sur les enjeux métier *Anticiper les problématiques de biais, variance, déséquilibre de données, bruit, dérive * Mettre en place du monitoring et optimiser performance & coûts * Contribuer activement aux choix d’architecture *Découper les problématiques complexes en étapes priorisées et actionnables
CDI

Offre d'emploi
Data Engineer (H/F)

Link Consulting
Publiée le
Big Data
Python
SQL

38k-40k €
Castelnaudary, Occitanie
Notre client, acteur majeur du secteur de la grande distribution, recherche son futur Data Engineer (H/F) pour son site basé dans l'Aude, à 45 minutes de Toulouse, dans le cadre du développement et de l’évolution de ses outils de pilotage. ### Vos missions Intégré à l’équipe informatique du client, vous devrez : * Centraliser et fiabiliser les données issues des outils métiers (logistique, commerce, marketing, qualité, finance). * Concevoir et déployer des architectures robustes pour collecter, structurer et exploiter des volumes importants de données. * Développer, automatiser et optimiser les flux et traitements de données, notamment depuis l’environnement SAP BusinessObjects via l’ETL BODS. * Garantir la performance, la disponibilité et la pérennité des infrastructures data. * Collaborer étroitement avec les équipes métiers et les Data Analysts afin de fournir des données fiables et exploitables pour la prise de décision. Les compétences techniques * Maîtrise des langages : Python, C/C++, Java, Perl. * Solide expérience des environnements UNIX, Linux, Solaris. * Bonne connaissance des bases de données et du SQL. * Compréhension globale des enjeux Big Data. * Atouts complémentaires : Access, VBA, Google Cloud Platform (GCP).
Freelance

Mission freelance
fullstack developer (data experience)

Hanson Regan Limited
Publiée le
Angular
Java
Python

12 mois
400-570 €
Paris, France
Hanson Regan recherche un développeur full stack pour une mission de 12 mois à Paaris. Projet axé sur les données et la visualisation de données. Nous recherchons un candidat justifiant d'une expérience professionnelle de plus de 4 ans pour une mission de longue durée à Paris. Ce poste s'inscrit dans le cadre d'un projet d'envergure et offre l'opportunité de collaborer au sein d'une équipe dynamique et reconnue. Compétences requises : Solide expérience en Python pour le développement backend et le scripting. Bonne connaissance de Java avec le framework Spring (Spring Boot de préférence). Expérience en Scala pour le développement d'applications évolutives et performantes. Maîtrise d'Angular 16+ pour le développement frontend moderne. Merci de nous contacter au plus vite si vous êtes intéressé ou si vous connaissez une personne correspondant à ce profil
CDI
Freelance

Offre d'emploi
Consultant(e) Data – Expertise Dataiku (F/H)

Argain Consulting Innovation
Publiée le
Dataiku

120 jours
38k-48k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Data – Expertise Dataiku (F/H) Vous interviendrez : Chez les clients, selon le cadre et les objectifs définis afin de : Travailler à la fois comme Développeur Data, Business Analyst Data , et référent Dataiku, en jonglant efficacement entre plusieurs projets. Synthétiser les échanges (ateliers, COPRO) afin de partager les sujets clés, proposer des solutions adaptées, chiffrer les besoins et planifier les actions. Assurer le suivi des tâches, sprints et collaborations via JIRA. Concevoir, développer et maintenir des pipelines data end‑to‑end dans Dataiku , notamment avec des traitements en SQL et la connaissance de GCP Contribuer à l’amélioration continue des modèles de traitement, de la qualité des données et des processus métiers. Analyser les besoins des équipes métier, challenger les hypothèses et traduire les cas d’usage en solutions data robustes. Participer à l’animation des ateliers, COPIL/COPRO, et accompagner les équipes dans la bonne exploitation des outils data. Collaborer avec les équipes Data, IT, métiers et prestataires externes pour garantir l’avancement des projets. Assurer une documentation claire et la traçabilité des traitements Data. Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE, Mener et réaliser des projets associatifs (mécénat auprès de nos associations partenaires)
Freelance

Mission freelance
Expert Logiciel / Ingénieur de Production

STHREE SAS pour HUXLEY
Publiée le

12 mois
Besançon, Bourgogne-Franche-Comté
Expert Logiciel / Ingénieur de Production - Suivi de production & Data Suivi de production & Développement d'outils Localisation : Besançon Présence : 2 jours par semaine sur site (présence accrue attendue en début de mission) Durée : Mission longue. Freelance ou portage (pas de sous-traitance) Démarrage : Dès que possible Contexte de la mission Notre client dispose d'une application métier critique dédiée à la collecte de flux financiers et à leur dispatch vers différents bénéficiaires. Aujourd'hui, une équipe interne prend en charge le reporting, mais l'organisation manque d'un profil capable de : faire le lien entre les enjeux métiers, la production et le développement, sécuriser le suivi de production, et concevoir les outils opérationnels nécessaires (requêtes SQL, dashboards, automatisations…). Dans ce contexte, le client souhaite renforcer son équipe avec un Expert Logiciel / Ingénieur de Production, doté d'une forte capacité d'analyse, à la fois technique et fonctionnelle. Objectifs de la mission Le consultant aura pour objectifs principaux de : Assurer le suivi de production de l'application métier (collecte et répartition des flux financiers). Superviser et contrôler le bon fonctionnement des développements (dev check). Construire, documenter et optimiser les requêtes SQL nécessaires aux analyses et au reporting. Participer à la création et à la maintenance de dashboards décisionnels. Faire le lien entre : les équipes métiers, l'équipe reporting, et les équipes techniques / développement. Accompagner les équipes dans la structuration des processus et des outils. Devenir le référent applicatif de la solution client, avec une montée en expertise progressive sur le domaine fonctionnel. Périmètre d'intervention Suivi de production Analyse des incidents récurrents et mise en place d'actions correctives. Monitoring des flux et consolidation des alertes. Contribution à la continuité opérationnelle de l'application. Développement & qualité technique Pilotage et coordination des développements. Priorisation des évolutions. Validation et challenge des livrables techniques. Participation aux phases de test. Data & reporting Rédaction et optimisation de requêtes SQL complexes. Construction ou amélioration de dashboards (outil BI à préciser : Power BI, Tableau, solution interne…). Structuration et fiabilisation des données utilisées par l'équipe reporting. Coordination & accompagnement Animation de points réguliers entre les équipes. Traduction des besoins métiers en spécifications techniques exploitables. Accompagnement au changement et mise en place de bonnes pratiques. Livrables attendus Documentation technique : requêtes SQL, processus de production. Dashboards fonctionnels, validés et exploitables. Plan de monitoring et de suivi de production. Roadmap d'amélioration continue de l'outil. Compte-rendu hebdomadaire d'avancement. Profil recherché Profil général Un profil avec une double appétence technique et fonctionnelle, à l'aise dans des environnements applicatifs complexes et métiers sensibles. Compétences techniques Excellente maîtrise de SQL (requêtes avancées, optimisation). Expérience avec un outil de data visualisation / BI. Bonne compréhension d'environnements applicatifs complexes. Expérience en ingénierie de production ou suivi de production. Compétences fonctionnelles Capacité à comprendre des processus financiers de collecte et de répartition de flux. Aisance dans la coordination multi-équipes. Autonomie et force de proposition. Soft skills Forte capacité d'analyse et de structuration. Capacité à vulgariser des sujets techniques. À l'aise dans un contexte complexe nécessitant de naviguer entre plusieurs interlocuteurs.
Freelance

Mission freelance
Ingénieur·e Data / DevOps

ATTINEOS
Publiée le
DevOps

1 an
320-470 €
Rouen, Normandie
Vous aimez évoluer sur des environnements data, manipuler de gros volumes de données et intervenir aussi bien en développement qu’en exploitation ? Cette opportunité est faite pour vous ! Nous recherchons un·e Ingénieur·e Data / DevOps pour renforcer une équipe intervenant sur des sujets à forte dominante data et bases de données. Au sein de l’équipe, vous interviendrez principalement sur des activités de RUN avec une forte composante développement, dans un environnement orienté data. Vos principales responsabilités : Développement autour des environnements Altair Intervention sur des problématiques data et bases de données Maintien en conditions opérationnelles des applications Analyse et résolution d’incidents Optimisation des traitements et des performances Contribution à l’amélioration continue des outils et des process Environnement technique : Altair, Bases de données (SQL), Environnement data, Notions DevOps et infrastructure (appréciées)
Freelance
CDD

Offre d'emploi
Product Owner Data

SMARTPOINT
Publiée le
Agile Scrum

6 mois
50k-55k €
400-450 €
Île-de-France, France
En tant que Product Owner Data, vous serez responsable de : Recueillir et analyser les besoins métiers en lien avec les équipes métiers et techniques Définir et prioriser le backlog produit en fonction de la valeur business Rédiger les user stories et spécifications fonctionnelles Piloter les développements en collaboration avec les équipes Data (Data Engineers, Data Analysts, Data Scientists) Garantir la qualité des livrables et leur adéquation avec les besoins utilisateurs Suivre les indicateurs de performance et proposer des axes d’amélioration Animer les rituels Agile (daily, sprint planning, review, rétrospective)
Freelance

Mission freelance
senior/expert dbt/Snowflake 

WorldWide People
Publiée le
DBT
Snowflake

3 mois
400-500 €
France
senior/expert dbt/Snowflake Caractéristiques : Client : pharmaceutique 5 à 10 ans d’expérience anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : France Responsabilités clés Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Implémenter des tests de qualité des données via les tests dbt Gérer les aspects administratifs des bases Snowflake Compétences techniques requises Snowflake Maîtrise avancée des fonctionnalités Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des warehouses Snowflake Gestion des external stages et de Snowpipe pour l’ingestion depuis AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration des bases Snowflake (création et gestion des objets, supervision, optimisation) dbt (data build tool) Développement avancé de modèles SQL avec dbt Création et optimisation de modèles de données (dimensions, faits, etc.) Utilisation des macros Jinja pour produire du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des snapshots dbt pour le suivi des évolutions des données Création de DAGs optimisés avec une gestion rigoureuse des dépendances et des tags Documentation des modèles de données DataOps & Automatisation Utilisation de schemachange pour l’automatisation des migrations de schéma Mise en place de pipelines CI/CD pour les plateformes data Maîtrise de Git et des workflows de développement collaboratif AWS & Intégration Connaissance de AWS S3 et de son intégration avec Snowflake Configuration des external stages et des processus d’ingestion Qualifications souhaitées Expérience avec les Snowflake Tasks et les Dynamic Tables Connaissance des principes de data mesh et de gouvernance des données Familiarité avec les frameworks de tests de données Expérience dans le secteur pharmaceutique ou des sciences de la vie Certifications (souhaitées) SnowPro Core Certification – fortement appréciée Certification dbt Analytics Engineering – un plus Certifications AWS (Solutions Architect, Data Engineer ou équivalent) – un plus
Freelance
CDI

Offre d'emploi
Data Analyst

Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL

3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
CDI
Freelance

Offre d'emploi
Architecte Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Freelance

Mission freelance
Architecte Solution/Tech Lead IA Python H/F

HAYS France
Publiée le
AI
Copilot
Github

8 mois
750-810 €
Montrouge, Île-de-France
Detail Solution Architecte expérimenté avec une double compétence Python/IA et maîtrise du vibe coding, capable de concevoir des architectures innovantes tout en accompagnant une équipe de développeurs dans un contexte agile et international. 1. Description de la mission Dans le cadre des projets IT Innovation, il s'agira d'intégrer et de renforcer l'équipe AI Factory/Innovation en tant que Solution Architecte et Tech Lead IA Python. Vous serez en charge des spécifications, conceptions architecturales et réalisations des différents modules nécessaires à la mise en production des solutions IA. Cette équipe travaille en mode agile en proximité avec les métiers Products & Innovation ainsi que les équipes métier et IT des autres filières du client. En tant que Tech Lead, vous aurez la responsabilité de développer les solutions tout en accompagnant et en montant en compétences les développeurs Python/IA de l'équipe. Vous jouerez un rôle clé dans l'architecture des solutions IA, l'intégration des LLMs et technologies ML/DL, et dans la mise en place des meilleures pratiques de développement assisté par IA. Expert reconnu en vibe coding, vous maîtrisez parfaitement l'utilisation des outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer le développement tout en garantissant la qualité architecturale et la maintenabilité du code. Vous êtes capable de former et guider l'équipe dans l'adoption de ces nouvelles méthodes de travail. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

4619 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous