L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 267 résultats.
Mission freelance
Senior Data Scientist
Publiée le
Deep Learning
Large Language Model (LLM)
Natural Language Processing (NLP)
3 mois
Rennes, Bretagne
🔍 Nous recherchons un Data Scientist senior pour concevoir et développer de nouveaux cas d’usage en Intelligence Artificielle à fort enjeu. 🎯 Vos missions principales (3 axes) : ✅ Identification & analyse des besoins : participation à des ateliers d’idéation, compréhension des enjeux clients et proposition de solutions algorithmiques sur mesure ✅ Développement & validation des modèles IA : analyse des données, conception, tests et validation d’algorithmes (optimisation, ML, Deep Learning, LLM, NLP) en environnement sensible ✅ Partage & montée en compétences : diffusion des connaissances au sein de l'équipe, partage des retours d’expérience et contribution à la montée en maturité de l’équipe
Mission freelance
Data engineer H/F
Publiée le
AWS Cloud
Azure
Databricks
2 ans
450-490 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer H/F à Paris, France. Contexte : Nous recherchons un Data Ingénieur capable d’intégrer des modèles d’IA générative pour créer des Agents IA connectés et déployé sur AWS ou Azure. A. Interface graphique permettant de construire les modèles et de définir les paramètres de simulation B. Coeur de calcul et outil de calcul connecté aux données big data de nos bases de données C. Outil de croisement des bases de données D. Logiciel de visualisation des résultats de simulation E. Outil de simulation des scénarios de régénération Les missions attendues par le Data engineer H/F : L’objectif est de concevoir et d’opérer une plateforme permettant : •Le déploiement d’agents conversationnels et d’outils d’analyse de texte en temps réel, •L’intégration de modèles LLM, •L’utilisation d’architectures cloud évolutives, robustes et optimisées en coûts (serverless, conteneurs, stockage S3, compute EC2, etc.). •Le ou la candidate contribuera également à l’orchestration des modèles via API Gateway, à l’exécution d’APIs serverless via Lambda, ainsi qu’à la gestion du cycle de vie des modèles via SageMaker (ou équivalent Azure Machine Learning). Les taches de cette mission sont : •Concevoir, développer et maintenir des scripts python robustes et scalables basées sur AWS ou Azure (API Gateway, Lambda Functions, App Services, etc.). •Développer des workflows IA robustes, incluant inference pipeline, gestion des prompts, monitoring et optimisation. •Travailler avec le développeur front Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : • Diplôme universitaire en informatique, en traitement de Langage ou dans un domaine connexe (ou expérience équivalente) • Solide maîtrise de python •Connaissances en bases de données SQL et NoSQL. •Expérience en conception d’API. •Maîtrise des bonnes pratiques de sécurité Web. •Connaissance des pipelines CI/CD, Git, conteneurisation (Docker, Kubernetes). •Atouts : expérience cloud (AWS, Azure, GCP), microservices, tests automatisés. •Capacité à travailler en autonomie tout en collaborant étroitement avec l’équipe. •Bon sens de la communication et esprit de synthèse. •Curiosité et appétence pour apprendre de nouvelles technologies. •Proactivité dans la résolution de problèmes. Environnement technique : AWS/AZUR/Databricks
Offre d'emploi
Product Owner Data / IA – LCB/LAB
Publiée le
Data analysis
LabVIEW
Large Language Model (LLM)
1 an
40k-45k €
400-500 €
Paris, France
Télétravail partiel
🚨 Opportunité – Product Owner Data / IA – LCB/LAB 🚨 Nous recherchons un Product Owner issu de la Data Science souhaitant évoluer vers un rôle PO, pour piloter l’implémentation d’un nouveau moteur de détection LCB/LAB intégrant des briques d’Intelligence Artificielle. 🎯 Au cœur de la mission : Backtesting et modèles prédictifs Modélisation du risque par alertes Développement d’un agent conversationnel LLM pour l’aide au traitement des alertes Visualisation des données via base graphe (Neo4j) 👉 Mission à forte valeur ajoutée, mêlant Data, IA, produit et enjeux réglementaires.
Offre d'emploi
Data Engineer (F/H) – Domaine de l’environnement - Toulouse
Publiée le
38k-44k €
Toulouse, Occitanie
Télétravail partiel
2 jours de télétravail / semaine - Toulouse - Expérience de 3 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons un(e) Data Engineer pour intervenir chez l’un de nos clients dans le domaine de l’environnement , disposant d’une plateforme Big Data exploitant de très grands volumes de données. Ces données alimentent des algorithmes d’analyse avancée et des services à forte valeur ajoutée (détection d’anomalies, prévisions, aide à la décision). Vous rejoignez une équipe data transverse avec un objectif clair : industrialiser et fiabiliser des traitements Big Data à grande échelle. Vos missions : Au sein d’une équipe Transformation & Modélisation pluridisciplinaire (data engineers, data scientists, développeurs), vous serez amené(e) à : Contribuer à la mise en place et à l’évolution de la stack Big Data Développer des jobs Spark pour l’ingestion, la préparation et l’enrichissement de données massives Alimenter et maintenir les données du data lake ou les rendre disponibles pour des usages IA / ML Travailler avec les outils de conteneurisation et d’orchestration comme Docker, Kubernetes et Helm Enrichir le serving layer et exposer les données via des web services Participer à la mise en production , à la maintenance et à l’amélioration continue des traitements Collaborer étroitement avec les équipes data, IT et métiers Compétences techniques : ️ Expérience confirmée en Data Engineering et traitement de données volumineuses Solide expérience en Java / Maven (J2EE / JDK 17) et Scala Maîtrise de Spark (SQL / DataFrame) pour traiter de grands volumes Bonne connaissance des architectures Big Data et des data lakes Expérience sur des pipelines data industrialisés Sensibilité aux problématiques de performance, robustesse et qualité des données Une connaissance des environnements ML / IA est un plus
Offre d'emploi
Ingénieur DATA
Publiée le
44 800-54k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Le poste fait partie de la Direction de la Transformation Stratégique qui compte notamment quatre équipes data : BI & Data Analytics, Data & AI Technology, Data Science & AI, Stratégie & Projets Data. Sous l’autorité du/de la Responsable Data & AI Technology et du/de la Team Leader, le/la Data Engineer réalise la conception, le développement et la maintenance des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données. Il/elle intervient également sur l’architecture data pour garantir des solutions robustes, performantes et évolutives. Missions clés : • Conçoit, développe et maintient des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données • Assure le développement logiciel lié et prodigue son support aux équipes data & business dans leurs propres développements • Intervient sur l’architecture data pour garantir des solutions robustes, performantes et évolutives • Participe activement à la montée en compétence des équipes data & business et les accompagne dans l’adoption des bonnes pratiques data et DevOps • Administre et fait évoluer la plate-forme data en collaboration avec la DSI, développe les outils nécessaires Compétences attendues : • Expertise en Python et SQL, appliquée dans des environnements data complexes et exigeants, intégrée dans des pratiques DevOps (Git, CI/CD, ELK …) o Expérience solide et opérationnelle avec les outils de la modern data stack et notamment Snowflake, Airflow et Soda • Expérience démontrée dans la conception d’architectures data modulaires, scalables et résilientes, combinée à des connaissances avancées en infrastructure et cloud, en particulier Azure. • Forte sensibilité aux technologies émergentes, en particulier l’IA, avec une capacité à identifier des cas d’usage pour le business et à les intégrer dans des produits data mais aussi dans la plate-forme data
Offre d'emploi
Program IT Lead - R&D Cloud, Data & AI
Publiée le
AWS Cloud
Azure
Cybersécurité
6 mois
Occitanie, France
Télétravail partiel
Program IT Lead pour un programme R&D Data & IA d’envergure. Pilotage d’une transformation Cloud & Data visant à accélérer les usages IA en recherche médicale et biostatistique. Construction et opération d’un Cloud-as-a-Service industrialisé, sécurisé, observable et conforme aux exigences réglementaires. Gouvernance des architectures, du delivery et des coûts via une démarche FinOps en environnement multi-cloud. Rôle d’interface entre IT, data, sécurité et métiers R&D pour transformer des besoins complexes en solutions robustes, audit-ready et scalables.
Offre d'emploi
Data Engineer - Spécialisation GenAI & LLM
Publiée le
CI/CD
GenAI
Git
24 mois
Paris, France
Télétravail partiel
Panda Services , société de services informatiques, recherche pour l’un de ses clients basé à Paris (75) un(e) Data Engineer - Spécialisation GenAI & LLM Contexte Nous renforçons notre équipe Data pour accompagner le déploiement de cas d’usage stratégiques en IA générative et LLM . Vous rejoindrez une plateforme data cloud moderne, au cœur des enjeux de valorisation des données structurées et non structurées , avec un objectif clair : rendre la donnée directement exploitable par des modèles LLM à l’échelle industrielle . Vos missions 🔹 Data Engineering moderne Concevoir et développer des pipelines ELT performants et scalables sur Snowflake Construire des modèles de données analytiques optimisés pour les usages BI et GenAI Optimiser les coûts, la performance et la sécurité de la plateforme data cloud 🔹 DataOps & qualité des données Mettre en place des tests, contrôles qualité et standards data indispensables à des projets LLM fiables Industrialiser les pipelines via Git, CI/CD et automatisation Participer à l’outillage DataOps / MLOps orienté LLM 🔹 Données & IA générative (axe clé du poste) Ingestion et préparation de données structurées, semi-structurées et non structurées (textes, documents, etc.) Contribution directe à des projets GenAI & LLM : génération et gestion d’ embeddings mise en œuvre d’architectures RAG (Retrieval Augmented Generation) exploitation et structuration de corpus documentaires pour les LLM Travailler avec les équipes IA pour garantir la qualité, la fraîcheur et la traçabilité des données exposées aux modèles 🔹 Collaboration Travail en étroite collaboration avec les équipes Data, BI, IA et Produit Force de proposition sur les bonnes pratiques Data & GenAI Profil recherché Compétences techniques Snowflake SQL avancé Python (data processing, préparation de données pour IA) Data modeling analytique Environnements cloud Git / CI-CD / DataOps Solides bases ou forte appétence pour les LLM & l’IA générative : embeddings RAG traitement de données textuelles Profil Forte curiosité pour les usages concrets de l’IA générative Capacité à évoluer dans des environnements data modernes et transverses Esprit d’optimisation, autonomie et sens de la qualité Envie de participer à des projets GenAI à fort impact business
Offre d'emploi
Lead Data Engineer
Publiée le
Python
60k-80k €
Paris, France
Télétravail partiel
Lead Technique Data Missions En tant que Lead Technique Data , vous collaborez étroitement avec des data engineers , data scientists et des équipes transverses (DevOps, IoT, logiciel). Votre mission principale consiste à concevoir, maintenir et optimiser une plateforme de données au cœur des projets d’IA. 1. Gestion et optimisation de la plateforme de données Normaliser et structurer les données : homogénéisation des formats, conception d’ontologies, mise en place de bonnes pratiques garantissant qualité et cohérence. Améliorer continuellement la plateforme : sécurité, scalabilité, optimisation des coûts, supervision et traçabilité. Mettre en œuvre la gestion de versions des données afin d’assurer une traçabilité complète, indispensable dans un contexte de dispositifs médicaux. 2. Développement de pipelines de transfert de données Concevoir et maintenir des pipelines ETL automatisés pour l’ingestion, le nettoyage et la transformation de données de santé. Garantir le respect des exigences RGPD : anonymisation, pseudonymisation et documentation complète des processus. Collaborer avec les équipes métiers pour intégrer de nouvelles sources de données et faire évoluer les pipelines. 3. Facilitation de l’accès aux données pour les data scientists Créer et gérer des datasets versionnés permettant des expérimentations reproductibles. Assurer des transferts de données volumineuses rapides, sécurisés et fiables. Adapter la plateforme aux besoins des data scientists : formats, structuration, enrichissement des métadonnées et support technique. 4. Automatisation et leadership technique Maintenir et améliorer les pipelines CI/CD pour des déploiements robustes et sécurisés. Déployer des outils de supervision (tableaux de bord, alertes) pour assurer la stabilité des pipelines. Industrialiser les déploiements des infrastructures data. Apporter un leadership technique : cohérence architecturale, accompagnement des profils plus juniors, revues de code et diffusion des bonnes pratiques. L’équipe Data intervient de manière end-to-end : recueil des besoins, architecture, développement, QA, sécurité, déploiement et opérations, avec une réelle liberté technologique. Compétences et expérienceCompétences techniques Programmation : Python (avancé), Git / GitLab CI. Cloud & Big Data : AWS (API Gateway, Cognito, Lambda, S3, SageMaker, Glue, Athena, ECS), Delta Lake, Databricks. Orchestration & Infra : Airflow, Terraform. Bases de données : MongoDB et solutions de stockage à grande échelle. Standards web : API REST, protocoles HTTP/HTTPS. Compétences relationnelles Rigueur scientifique et forte capacité d’analyse. Aptitude à faire le lien entre data science, ingénierie logicielle et opérations. Capacité à produire une documentation technique claire et conforme aux exigences réglementaires. Expérience Minimum 7 ans d’expérience en ingénierie data, dont 2 ans ou plus sur un rôle senior ou de responsabilité technique. Bonne compréhension des enjeux de cybersécurité et de conformité réglementaire , en particulier pour les données de santé. Maîtrise de l’ anglais technique dans un environnement international. Atouts appréciés (optionnel) MLOps : orchestration, déploiement et supervision de pipelines ML. Connaissance des processus de certification CE / FDA pour logiciels ou algorithmes. Expérience avec des données de santé : signaux électrophysiologiques (EEG, ECG, EMG) ou données cliniques. Infrastructure : Linux, conteneurisation (Docker, registres d’images). Lieu de la mission: Paris TT: 3 jours
Offre d'emploi
Concepteur/Rédacteur
Publiée le
IA
1 an
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Contexte de la mission : Le Pôle Data & IA Groupe recherche un concepteur-rédacteur expérimenté pour renforcer sa communication interne. Il accompagnera la Responsable communication du Pôle pour sensibiliser les postiers et postières aux enjeux de la data et de l’intelligence artificielle, en cohérence avec la stratégie du Pôle Mission Activités principales Recueil des besoins internes Animer des comités éditoriaux pour définir les besoins. Collaborer avec les équipes pour collecter les informations clés. Création de contenus Définir les thématiques pertinentes liées à la Data & IA. Proposer des idées originales pour des contenus attractifs. Rédiger articles, posts pour les réseaux internes et autres supports. Contenus multimédias Produire divers formats : articles, podcasts, vidéos, newsletters, Datalks, événements, etc. Adapter les contenus selon les canaux pour maximiser leur impact. Organisation d’événements Coordonner la planification et la logistique d’événements internes (Forum Data & IA, Datalks). Promouvoir les événements sur les différents canaux. Suivi de production Gérer les prestataires externes (briefs, suivi, validations). Veiller au respect des délais et à la qualité des livrables. Veille Suivre les tendances Data & IA pour enrichir les contenus et nourrir la stratégie. Refonte de la newsletter Imaginer et piloter la refonte de la newsletter interne trimestrielle.
Mission freelance
Data Engineer Industrial (Industry 4.0) - Belgique
Publiée le
Snowflake
1 an
500-550 €
Belgique
Télétravail partiel
Contexte Des sites industriels spécialisés dans la fabrication de composants métalliques de haute précision produisent des pièces critiques en titane, impliquant des opérations d’usinage et de forge extrêmement fines (ordre de grandeur : 10 µm). Une équipe dédiée à la modernisation industrielle est responsable de fournir des outils digitaux et des solutions technologiques avancées en support aux métiers et aux unités de production. Dans le cadre d’un programme ambitieux de modernisation industrielle (Industry 4.0), l’équipe recherche un Data Engineer afin de développer des pipelines de données industriels. L’objectif principal est de concevoir et déployer des pipelines de données (ETL) robustes, scalables et sécurisés, en s’appuyant sur des technologies pérennes, au sein d’architectures hybrides combinant environnements on-premise et cloud. Ce rôle est essentiel pour fiabiliser les flux de données industriels, exposer les données via un Unified Namespace et des APIs robustes, et en permettre l’exploitation à grande échelle dans un contexte sécurisé et opérationnel. Structure du département L’équipe est composée d’ingénieurs spécialisés dans l’interface entre le monde industriel (OT) et les systèmes d’information manufacturiers (IT). Parmi les expertises présentes : IT Platform Manufacturing Execution Systems Unified Namespace (collecte et distribution temps réel) Inspection Qualité Data (BI, Machine Learning, IA, etc.) Attractivité du poste Le projet vise à concevoir et développer la plateforme Manufacturing 4.0 du futur, intégrant notamment : pilotage par la donnée, robotique, intelligence artificielle. Fonction Tâches En collaboration avec les équipes data, IT et métiers industriels, vous devrez : Concevoir & développer des pipelines de collecte de données machines (fichiers, flux, capteurs, MES) Décoder et transformer des données brutes en formats exploitables (JSON, tables analytiques) Implémenter des transformations complexes Développer & déployer des APIs data Industrialiser les solutions via containers & CI/CD GitLab Maintenir les modèles de données & pipelines dans Snowflake Travailler avec les équipes IT pour l’intégration Documenter & partager les bonnes pratiques Challenges Être un acteur clé de la modernisation 4.0 Fiabiliser les flux data issus des machines Concevoir des architectures robustes & maintenables Concilier contraintes industrielles / IT / qualité de données Faire évoluer les pratiques Data Engineering Interactions internes & externes Intégration au sein de l’équipe Manufacturing 4.0 Interactions régulières avec les équipes MES, Qualité, Maintenance, UNS, IT, Cloud Collaboration possible avec des partenaires technologiques externes Mobilité Travail principalement en présentiel sur site industriel Déplacements ponctuels sur un second site de production Télétravail possible jusqu’à 2 jours/semaine selon les besoins
Mission freelance
Ingénieur IA Générative & MLOps H/F
Publiée le
IA Générative
MLOps
110 jours
400-450 €
Toulouse, Occitanie
Télétravail 100%
Dans le cadre de l’accélération de nos initiatives IA en 2026, nous développons une capacité avancée autour de l’IA générative, de la gestion des modèles, de la contextualisation métier et de l’optimisation des opérations. Nous recherchons un expert IA Générative capable d’accompagner les équipes techniques, OPS, Data et Métier dans la conception, l’industrialisation et la sécurisation de nos solutions IA. Missions principales: 1. Conception et déploiement de solutions IA Générative Concevoir, entraîner, ajuster et déployer des modèles IA générative (LLM, agents, RAG…). Définir et mettre en œuvre l’architecture IA sur les plateformes internes : Mistral , Ferme GPU , environnements containers. Concevoir des composants IA réutilisables : pipelines modèles, agents, microservices IA. 2. MLOps & industrialisation Mettre en place et optimiser les pipelines MLOps : entraînement, évaluation, CI/CD, monitoring, governance. Participer à l’automatisation et l’augmentation des rôles existants (UC concepteur, testeur, OPS augmentés). Garantir la qualité, la robustesse et la reproductibilité des modèles. 3. Analyse, transformation et contextualisation de données Exploiter et transformer la donnée existante pour optimiser la contextualisation LBP (RAG, embeddings, features). Superviser les phases de data cleansing, normalisation et structuration. Proposer des stratégies pour enrichir et exploiter les données métiers. 4. Optimisation, tuning et amélioration continue Analyser et corriger les résultats obtenus par les modèles. Réaliser du tuning , prompting avancé, réglage hyperparamétrique, distillation, pruning. Suivre en continu les performances et proposer des améliorations. 5. Sécurité, conformité, RSE & FinOps Appliquer les exigences de sécurité IA, privacy by design, gestion des risques. Optimiser les coûts GPU / calcul / stockage dans une logique FinOps . Contribuer à la démarche RSE IA responsable : transparence, biais, sobriété. Compétences recherchées:Techniques Très bonne maîtrise des modèles IA générative (LLM, diffusion, agents). Compétences solides en MLOps : CI/CD, monitoring, orchestration de pipelines. Maîtrise Python, frameworks IA (PyTorch, Transformers, LangChain, vLLM…). Connaissance des architectures GPU (Nvidia, CUDA, quantization…). Expérience avec des plateformes IA : Mistral, HuggingFace, Azure ML, Kubeflow… Bonne compréhension des enjeux sécurité, éthique, RSE, FinOps. Expertise en data engineering et data transformation. Méthodologiques & humaines Vision architecturale, approche solution et capacité à structurer. Travail en transversal : Dev, OPS, Data, Sécurité, Métiers. Pédagogie, vulgarisation, leadership technique. Sens de l’innovation, veille permanente, autonomie forte.
Offre d'emploi
Cloud Data Engineer
Publiée le
Big Data
Cloud
60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Offre d'emploi
Expert Python / Innovation & Services Cloud
Publiée le
Architecture
CRM
DevSecOps
1 an
Paris, France
Contexte Dans le cadre d’une transformation digitale d’envergure internationale , la mission s’inscrit au sein d’un groupe leader de l’assurance présent dans plus de 80 pays. L’objectif est de fournir des services IT standardisés à l’ensemble des entités du groupe, en améliorant l’excellence opérationnelle, l’alignement du portefeuille applicatif et l’efficacité des coûts. La mission contribue à l’évolution d’une plateforme SaaS de gestion de contenus (Content Management eXperience – CMX) , conçue comme une solution clé en main, exposant des API REST et une interface web, conforme aux standards du groupe en matière d’ architecture, sécurité, conformité et résilience . L’enjeu principal est d’ enrichir la plateforme par de nouvelles fonctionnalités, des services innovants (notamment basés sur l’IA générative) et d’ accélérer les migrations Cloud . Objectif de la mission Maintenir, faire évoluer et enrichir les outils Python cœur de plateforme , tout en concevant de nouveaux services à forte valeur ajoutée (IA, sémantique, cloud-native), en lien étroit avec les équipes métiers et techniques. Missions principales Développement & évolution des outils cœur Maintenir, auditer, stabiliser et refactoriser les outils Python existants . Garantir un code propre, conforme PEP8 , testé et documenté. Harmoniser et industrialiser de nouveaux modules (ex. traduction de règles métiers en workflows techniques automatisés, stratégies de gestion et d’archivage de fichiers). Innovation & prototypage Concevoir et piloter des sprints d’innovation rapides . Prototyper de nouveaux services basés sur des cas d’usage concrets : IA générative Tagging automatique Recherche sémantique Contrôle qualité des contenus Challenger les besoins métiers et concevoir des proofs of concept (POC) . Évaluer la faisabilité technique et proposer des roadmaps de mise en production . Collaboration & bonnes pratiques Travailler étroitement avec les métiers, product managers et ingénieurs . Réaliser des revues de code et partager les bonnes pratiques (clean code, TDD, CI/CD). Accompagner et mentorer les équipes sur les standards de développement. DevOps & Cloud Contribuer aux pipelines CI/CD . Participer aux déploiements automatisés et à l’ Infrastructure as Code (Terraform, CloudFormation). Environnement technique Langages & développement Python (avancé) Git, Bash Java, JavaScript (React / Vue) Data, IA & sémantique Pandas, regex Parsing JSON / XML Prompt engineering NoSQL (MongoDB, MarkLogic) RDF / SPARQL, graphes Cloud & DevOps AWS (S3, Lambda) CI/CD : Jenkins, GitLab CI Terraform, CloudFormation OpenShift, Kubernetes Artifactory, OpenLDAP Qualité & tests Pytest Frameworks BDD (Behave, Cucumber) Selenium Sécurité & qualité de code : SonarQube, Snyk
Mission freelance
Data Analyst Senior Sur Meudon
Publiée le
SQL
4 mois
Meudon, Île-de-France
Télétravail partiel
• Assurer la production et la fiabilité des indicateurs de performance métier • Garantir la continuité des activités Data • Apporter un leadership technique et méthodologique • Structurer les pratiques de l’équipe et accompagner la montée en compétence • Participer à la coordination et au pilotage des chantiers Data Missions principales • Qualification des besoins métiers lors des points de revue • Priorisation et planification des travaux Data (sprints bimensuels) • Production des indicateurs dans les délais engagés • Validation de la conformité des livrables avec les attentes métiers • Délégation et supervision d’une partie des travaux auprès des Data Analysts internes • Consolidation et reporting de l’avancement des travaux (directs et délégués) • Accompagnement de l’équipe sur : – les méthodes de travail – les nouvelles pratiques Data – l’intégration de l’IA dans les métiers
Mission freelance
Chef de projet Data et IA
Publiée le
Data management
IA
IA Générative
6 mois
400-500 €
Île-de-France, France
Télétravail partiel
Pour le compte de notre client qui opère dans le secteur bancaire , nous recrutons chef de projet Data et IA (h/f). L'objectif de la prestation est de renforcer l’équipe des chefs de projet du DataLab Groupe pour traiter les projets Data / IA / IA GEN confiés à la Direction Data & IA. Indispensable : Expérience confirmée , des interventions récentes en pilotage de projets Data + IA (non seulement en data) JavaScript / TypeScript Envoyez vos candidatures via la plateforme ou à l'adresse mail Besoin n'est pas ouvert à la sous-traitance.
Offre d'emploi
Chef de projets DATA F/H
Publiée le
40k-50k €
Niort, Nouvelle-Aquitaine
Chef de projets DATA F/H - Niort Chef de Projet DATA F/H Rejoignez EXPERIS et participez à des projets stratégiques autour de la valorisation de la donnée ! Nous accompagnons nos clients dans leur transformation digitale et nous recherchons un Chef de Projet DATA expérimenté pour piloter et animer des initiatives clés dans le domaine de la Data et de l'IA. Votre rôle Au sein d'une équipe dédiée à la DATA, vous serez un acteur central dans la mise en œuvre d'un nouveau modèle Data. Votre mission : garantir la qualité, la fiabilité et la performance des solutions déployées. Vos principales responsabilités : Piloter l'activité et assurer le management opérationnel d'une équipe composée de 2 pôles. Accompagner les équipes dans la conception et les PO dans la relation métier. Garantir les livrables et la satisfaction des clients internes. Animer des ateliers métiers et des task forces en cas d'incidents. Challenger les solutions techniques et contribuer à la qualification des projets.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
267 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois