Trouvez votre prochaine mission.
Votre recherche renvoie 587 résultats.
Mission freelance
QA & Automation Engineer Junior
Gentis Recruitment SAS
Publiée le
.NET
Angular
C#
6 mois
Paris, France
1. Contexte général Dans un contexte de transformation digitale et de modernisation de son système d’information, la GBU S&EM poursuit le déploiement de la plateforme Orchestrade , progiciel front-to-back de trading et de gestion des risques, développé en partenariat étroit avec l’éditeur. Afin d’accompagner un rythme soutenu de livraisons applicatives , un renforcement des équipes est nécessaire pour garantir la qualité, la fiabilité et la conformité de la chaîne applicative autour d’Orchestrade. 2. Objet de l’appel d’offres Le présent appel d’offres vise à sélectionner un(e) QA & Automation Engineer Junior capable d’intervenir sur les activités d’assurance qualité, d’automatisation des tests et d’amélioration continue, dans un environnement applicatif complexe intégrant des traitements batch et des pipelines CI/CD. 3. Périmètre de la mission3.1 Assurance qualité Le consultant interviendra sur les activités suivantes : Analyse des spécifications fonctionnelles et techniques Rédaction de cas de tests fonctionnels et techniques Exécution de campagnes de tests (fonctionnels, intégration, non-régression) Identification, qualification et documentation des anomalies Vérification de la conformité applicative vis-à-vis des exigences métiers et réglementaires Participation aux phases de recette applicative 3.2 Automatisation & scripting Développement et maintenance de scripts de tests automatisés Contribution à l’évolution des frameworks de tests existants Automatisation des tests batch et applicatifs Intégration des tests automatisés dans les chaînes CI/CD existantes 3.3 Usage de l’IA générative appliquée à la QA Réalisation de POCs rapides exploitant des outils d’IA générative Aide à la génération automatique de cas de tests Assistance à l’analyse et à la qualification des anomalies Optimisation de la couverture de tests Contribution aux initiatives d’amélioration continue autour du test intelligent 4. Environnement techniqueLangages & développement Python (scripting, automatisation, manipulation de données de test) C# / .NET (tests d’applications backend) Notions Front-end : HTML, CSS, JavaScript (visualisation, dashboards simples) Automatisation & intégration continue Outils de tests UI et/ou API Pipelines CI/CD (Git, Jenkins, GitLab CI ou équivalent) Ordonnancement & batch Automic ou outils équivalents Compréhension des traitements batch, flux applicatifs et dépendances IA & data (niveau notionnel) Intérêt marqué pour l’IA générative Notions de machine learning, NLP ou outils IA appliqués à la QA 5. Profil recherché Diplôme d’ingénieur en informatique, idéalement avec une spécialisation IA ou data Première expérience significative en : QA automatisation de tests support technico-fonctionnel (alternance acceptée) Capacité à évoluer dans des environnements applicatifs complexes Autonomie, adaptabilité et capacité à travailler sous contrainte de delivery
Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)
Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud
6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
Offre d'emploi
Senior Cloud Security Engineer – Azure / GenAI (H/F)
AVA2I
Publiée le
Microsoft Copilot Studio
Azure AI
CI/CD
3 ans
Île-de-France, France
Dans le cadre de programmes stratégiques autour de l’ IA de nouvelle génération (GenAI) , notre client grand compte du secteur bancaire renforce ses équipes avec un expert technique en cybersécurité et DevSecOps , très orienté mise en œuvre concrète des contrôles de sécurité sur Azure / Microsoft . Vous rejoignez une équipe internationale mature, déjà dotée de profils GRC et pilotage . 👉 Ce poste n’est pas un rôle de chef de projet ni de GRC : la valeur attendue est 100 % technique . 🎯 Priorité absolue : experts cyber capables de sécuriser des cas d’usage GenAI / LLM / agentiques en production , dans un contexte bancaire exigeant (sécurité, conformité, data sensible) . Vos missions (périmètre technique) Vous interviendrez en support technique avancé pour la sécurisation de la stack IA du client : 🔹 Sécurité des plateformes GenAI sur Azure Azure AI & Cognitive Services Azure OpenAI (si utilisé) Azure Machine Learning Microsoft Fabric, Power Platform, M365 Intégrations data (ex : Snowflake) 🔹 Design & implémentation des contrôles de sécurité Identités & accès : RBAC, MFA, Conditional Access, PIM Sécurisation réseau et cloisonnement des environnements Sécurisation des endpoints et services IA 🔹 DevSecOps & Infrastructure as Code Mise en place et amélioration de pipelines CI/CD sécurisés Sécurité de l’IaC : Terraform, Bicep Intégration de contrôles automatisés et policy-as-code 🔹 Outils de sécurité Microsoft Microsoft Sentinel Defender for Cloud Microsoft Purview (DLP, classification, conformité) 🔹 Rôle de référent technique Interaction directe avec développeurs, data engineers, data scientists Capacité à apporter des réponses opérationnelles sur les risques IA : prompt injection data / model poisoning exfiltration de données escalade de privilèges via agents / LLM 📦 Livrables attendus Blueprints et architectures de sécurité GenAI sur Azure Configurations sécurisées des services IA (RBAC, policies, alertes, DLP…) Contribution aux analyses de risques et mesures de mitigation techniques Revue de code, IaC et pipelines CI/CD Mise en œuvre de contrôles automatisés Reporting technique : posture de sécurité, vulnérabilités, plans de remédiation
Mission freelance
Senior Data Engineer / Data Analyst
Sapiens Group
Publiée le
BigQuery
Python
SQL
12 mois
450-470 €
Levallois-Perret, Île-de-France
Nous recherchons un Senior Data Engineer / Data Analyst pour intervenir sur des solutions dédiées à l’analyse et à l’optimisation des performances média. Le poste s’inscrit au sein d’une équipe pluridisciplinaire et dynamique composée notamment de Tech Lead, Développeurs Full Stack, Data Scientists, Product Owner et QA. L’une des applications principales, One Creative , a pour objectif d’offrir une vision globale de la performance et de l’optimisation des assets media , depuis la stratégie globale jusqu’à l’activation locale. Missions principales1. Data Engineering & Pipelines Développer et maintenir les data pipelines alimentant les applications data. Gérer le sourcing des données depuis le Data Lake (BigQuery) . Automatiser le téléchargement d’assets vidéo via les APIs des plateformes social media . Intégrer les données issues de l’application interne Augmented DAM (analyse créative). Mettre en place et optimiser les processus d’IA (embedding, clustering). Transformer les données brutes du Data Lake en tables optimisées pour l’application One Creative (fusion des KPIs de performance, métadonnées, données créatives). 2. Backend & Architecture Optimiser le déploiement du backend sur GCP . Participer à la modernisation des briques techniques (thumbnail, product detection, encoder). Contribuer à l’ optimisation de la chaîne CI/CD . Travailler sur la migration du backend de l’application Augmented DAM . 3. Data Quality & Monitoring Développer des premières briques de monitoring des données (assets, KPIs). Assurer la qualité et la cohérence des données consolidées par rapport aux sources. Participer au développement des métriques de monitoring des KPIs de l’application . 4. Analyse de données & Insights Développer des requêtes SQL pour exploiter les données du Data Lake selon les besoins métier. Analyser et croiser les données afin de produire des insights et benchmarks (ex : types de créatifs générant le plus de performance). Collaborer avec le Data Business Owner pour définir et structurer les besoins data. 5. Documentation & Qualité du code Documenter les datasets et schémas de données issus du Data Lake. Améliorer la qualité de la codebase Python via l’ajout de tests unitaires et d’intégration. Contribuer aux bonnes pratiques de développement et de gouvernance des données. Compétences techniques Excellente maîtrise de Python et SQL Expérience avec BigQuery ou data warehouse cloud Connaissance des architectures data pipelines Expérience avec APIs et ingestion de données externes Bonnes pratiques CI/CD, tests et qualité du code Connaissance des problématiques data quality et monitoring
Offre d'emploi
Ingénieur DevOps Confirmé / Senior (H/F)
QODEXIA
Publiée le
CI/CD
Docker
Jenkins
10 jours
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Nous sommes à la recherche d’un Ingénieur DevOps confirmé / senior (Environnement bancaire ) , disposant d’une forte expertise GPU, orchestration, monitoring et plateformes data / IA, pour intervenir dans un environnement bancaire fortement régulé.
Mission freelance
Ingénieur Data
JobiStart
Publiée le
AI
AWS Cloud
Cloud
1 an
400-550 €
Île-de-France, France
Concevoir, développer et opérer des pipelines de données robustes et évolutifs au sein d’environnements Cloud Mettre en place des mécanismes d’ingestion, de transformation et d’exposition de données provenant de sources multiples, structurées ou non Exploiter les services Cloud pour l’orchestration des flux, le stockage et le calcul distribué Développer des composants Data orientés usages analytiques et Intelligence Artificielle Participer à la mise en production et à l’industrialisation de modèles de Machine Learning et d’IA générative Optimiser la performance, la fiabilité et la maintenabilité des traitements et des pipelines Définir et appliquer des règles de qualité, de cohérence et de normalisation des données Contribuer à la structuration des référentiels data et aux démarches de gouvernance Produire et maintenir la documentation technique et fonctionnelle des flux et modèles de données Accompagner les équipes métiers et analytiques dans la formalisation des besoins Data Animer des ateliers de cadrage afin de traduire les usages fonctionnels en solutions techniques Jouer un rôle d’interface entre les équipes IT, Data Science et utilisateurs finaux Automatiser les déploiements et les traitements via des pipelines CI/CD Contribuer à la conception et à la sécurisation des architectures Data Cloud Intégrer les traitements selon les standards ETL/ELT et les bonnes pratiques DevOps
Mission freelance
Un profil de rédacteur / Concepteur
Mon Consultant Indépendant
Publiée le
Rédaction
12 mois
520-550 €
Paris, France
DETAILS DE LA MISSION Le prestataire aura pour rôle principal de soutenir la Responsable de communication dans les actions suivantes Activités principales : Recueil des besoins internes : Participer et animer des comités éditoriaux pour identifier les besoins et priorités internes. Collaborer avec différents interlocuteurs internes pour recueillir des informations clés. Conception et rédaction des contenus : Identifier les thématiques pertinentes liées à la Data et à l’IA. Proposer des idées innovantes pour des contenus engageants. Rédiger des articles, posts pour réseaux internes, et autres supports de communication. Gestion et création de contenus multimédias Produire des supports variés : articles, podcasts, vidéos, newsletters, Datalks, événements, etc. Traiter des demandes spécifiques en lien avec la stratégie de communication du Pôle. Concevoir et organiser des contenus adaptés à chaque canal pour maximiser leur impact. Organisation d'événements : Coordonner la planification et la logistique des événements internes (Forum Data C IA, Datalks, etc.). Veiller à la qualité des interventions et des thématiques abordées, en collaboration avec les parties prenantes. Assurer la promotion des événements via les différents canaux de communication. Suivi de production : Assurer la gestion des prestataires externes (briefs, suivi, corrections, etc.). Garantir le respect des plannings et la qualité des livrables. Veille sectorielle : Rester informé des tendances liées à la Data et l’IA pour enrichir les contenus et ajuster la stratégie. Refonte de la newsletter interne : Imaginer et piloter une refonte complète de la newsletter trimestrielle. Cadre Organisationnel Le concepteur/rédacteur travaillera en étroite collaboration avec la Responsable communication du Pôle Data C IA et son équipe. Une interaction régulière avec divers interlocuteurs internes sera nécessaire afin de recueillir les informations indispensables à la production des contenus. Profil Recherché : Expérience confirmée de 7 ans minimum en rédaction/conception dans des contextes internes ou externes. Connaissances approfondies ou fortes appétences pour les thématiques Data et IA. Compétences en création et gestion de contenus multimédias. Savoir-faire éditorial et capacité à vulgariser des concepts complexes pour les rendre accessibles. Maîtrise des outils de communication digitale et éditoriale. Durée et Modalités : Durée du contrat : 1 an à mi-temps (renouvelable).
Mission freelance
Senior AI Engineer
Tenth Revolution Group
Publiée le
CI/CD
GenAI
No-Code
12 mois
750-900 €
Paris, France
Le client est une plateforme No-code qui permet de bâtir des interfaces web complexes. Aujourd'hui, l'IA est au cœur de leur stratégie. Nous ne cherchons pas un intégrateur d'API, mais un Architecte/Builder capable de concevoir de zéro le moteur d'agents intelligents de la plateforme. Full Remote (culture asynchrone et internationale). Moyens massifs : Le projet est prioritaire, le client est prêt à investir sur le profil qui saura porter la vision technique. Impact : Vous êtes le "Go-to expert" IA de la boîte. Ce que vous bâtissez définit le futur du produit.
Offre d'emploi
QA Finance H/F
SMARTPOINT
Publiée le
Linux
Python
12 mois
51k-60k €
400-480 €
Île-de-France, France
Au sein d’une équipe dynamique et exigeante, vous intervenez en tant qu’ Ingénieur QA spécialisé en tests d’intégration afin de garantir la fiabilité, la performance et la robustesse de nos systèmes back-end / middleware, notamment dans un environnement bancaire et financier. Vous jouez un rôle clé dans la validation des interactions entre modules logiciels et contribuez activement à l’amélioration continue des processus qualité. Planification des tests Élaborer des stratégies complètes de tests d’intégration Définir objectifs, périmètre et critères de réussite Identifier et prioriser les cas de test selon les risques Exécution des tests Réaliser des tests d’intégration manuels et automatisés Valider les interactions entre modules logiciels Simuler des scénarios réels pour tester différents comportements système Gestion des anomalies Identifier, documenter et suivre les bugs Collaborer avec les développeurs pour reproduire et corriger les incidents Effectuer les tests de non-régression Automatisation Mettre en place et maintenir les tests automatisés Améliorer la couverture et l’efficacité des campagnes de test Utiliser des outils d’IA pour optimiser les processus QA Collaboration transverse Travailler étroitement avec les équipes de développement et les Business Analysts Participer aux revues de conception et de code avec une vision QA Fournir des retours sur les risques d’intégration et proposer des améliorations Reporting & Amélioration continue Produire des rapports détaillés et indicateurs qualité Communiquer les risques et l’avancement au management Contribuer à l’amélioration continue des méthodologies Accompagner et coacher des QA juniors
Mission freelance
POT8982 - Un intégrateur AWS Platform Engineer sur Paris 02
Almatek
Publiée le
API
6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un intégrateur AWS Platform Engineer sur Paris 02. Contexte: Dans un environnement en pleine transformation avec des évolutions technologiques rapides, vous rejoindrez une équipe Global Information Technology Services (TGITS). Cette équipe gère la construction et le support de la plateforme Data &Analytics utilisée par l’ensemble des entités de l’entreprise. Rôles et responsabilités : En tant que membre du squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. • Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL : De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donnée ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS. • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA. • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Expérience requise : 2 ans d’expérience minimum : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro-services : • Python • APIs (REST, event-driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision Langues : Anglais et Français
Offre d'emploi
Site Reliability Engineer / SRE (Lille - 3j de présentiel par semaine non négociable)
ANDEMA
Publiée le
Datadog
Github
Google Cloud Platform (GCP)
12 mois
Lille, Hauts-de-France
Contexte de la mission Renforcer l'équipe Opérations et créer une fonction SRE structurante au sein de l’organisation. Nous recherchons un·e SRE senior capable d’incarner et de structurer la pratique SRE, avec une approche hybride RUN → BUILD : Gérer le RUN (gestion des incidents, traitement des tickets, maintien en conditions opérationnelles) Transformer les irritants récurrents en projets d’amélioration Automatiser les opérations pour réduire le volume de tickets et éviter leur réapparition Utiliser les problématiques du RUN comme levier pour impulser des projets BUILD (infra, performance, sécurité, fiabilité) L’objectif : faire du RUN un moteur d’amélioration continue, en collaboration étroite avec les équipes infra et développement. ️ Missions principales Garantir la disponibilité, performance et scalabilité de la plateforme Gérer les incidents de bout en bout (analyse des causes racines, post-mortem, correctifs, prévention) Structurer et améliorer l’ observabilité et la qualité de service Automatiser les opérations et le support (approche software & IA pour les Ops) Réduire la dette opérationnelle via des chantiers techniques structurants Collaborer étroitement avec les équipes Dev, DevOps et Sécurité Stack & environnement Cloud : GCP Orchestration : Kubernetes Systèmes : Linux Langages & IaC : Python, Terraform, Java Monitoring : Datadog CI/CD : GitHub, GitHub Actions Réseaux & sécurité : WAF, protection DDoS Modalités : Localisation : Lille (accessible en transports) Durée de la mission : longue, plusieurs années
Mission freelance
FREELANCE – Lead Analytics (H/F)
Jane Hope
Publiée le
Azure Data Factory
Azure Synapse
DAX
6 mois
450-550 €
Lille, Hauts-de-France
Notre client, basé à Lille (59), est à la recherche d’un Lead Analytics (H/F) freelance pour être le référent technique et le manager de proximité de la verticale Analytics au sein du département IA & Data. MISSIONS Vous vous placez au cœur de la chaine de valeur analytique : vous produisez, structurez, accompagnez la montée en compétences des équipes et de la plateforme data. Objectifs court terme : · Prendre en main l'équipe et établir une relation de confiance avec les Data Analysts dans les 3 zones géographiques · Auditer l'état du portefeuille analytique existant (rapports, dashboards, modèles de données) et comprendre les priorités · Livrer des cas d'usage analytiques à fort impact pour démontrer la valeur de la verticale. Objectifs long terme : · Contribuer à la feuille de route analytique alignée sur les priorités business et la stratégie Data & AI · Faire monter en maturité l'équipe sur les pratiques avancées d'analyse et l'usage de Microsoft Fabric / Power BI · Développer un modèle de self-service analytics fiable, gouverné et scalable pour les métiers · Établir un cadre de mesure de la valeur créée par la verticale (adoption, qualité, impact business) Responsabilités techniques : · Concevoir, développer et maintenir des modèles sémantiques et dashboards Power BI complexes · Produire des analyses et des requêtes avancées pour répondre aux questions business stratégiques · Assurer la qualité et la cohérence des données analytiques exposées aux métiers · Documenter les logiques de calcul, les sources et les définitions de métriques · Réaliser des revues de code et du pair-programming avec les Data Analysts de l'équipe Responsabilité managériale : · Animer l'équipe d’environ 7 Data Analysts répartis en Europe, Amérique du Nord et Russie · Conduire les entretiens individuels, fixer les objectifs et accompagner le développement professionnel · Piloter le cycle d'évaluation annuelle de l'équipe (performance, développement, plan de progression) · Assurer la montée en compétence des équipes sur les outils et pratiques analytiques (Microsoft Fabric, Power BI, DAX) · Gérer le budget de la verticale Analytics et en assurer le suivi · Gérer la relation avec les fournisseurs et partenaires externes liés aux outils et services analytiques · Représenter la verticale Analytics dans les instances de gouvernance du département AI & Data · Coordonner avec les autres verticales (Data Platform, Data Delivery, Data Governance) pour fluidifier les livraisons ENVIRONNEMENT TECHNIQUE · Microsoft Fabric : PowerBI, Lakehouse, Onelake · DAX, Power Query · SQL · Azure Data : Azure Data Lake, Synapse
Mission freelance
Développeur Full Stack (5+ ans) ( profil habilitable)
Signe +
Publiée le
MySQL
12 mois
500 €
Issy-les-Moulineaux, Île-de-France
Contexte Contribution à des cas d’usage IA et à la définition de l’architecture technique des composants logiciels Participation à l’amélioration des pratiques de développement et des chaînes CI/CD Missions Concevoir et implémenter les solutions techniques en méthodologie agile Développer les composants frontend et backend Assurer l’intégration avec les environnements de production et contribuer au MCO/MCS Participer à l’amélioration des pratiques de qualité logicielle (tests, non-régression, CI/CD) Appliquer les bonnes pratiques de sécurité applicative et d’observabilité Compétences requises Frontend : ReactJS, Angular ou Vue.js Backend : Python, Node.js ou Java API REST / GraphQL, architectures applicatives, tests automatisés Software craftsmanship : TDD, BDD, DDD, pair programming CI/CD : GitLab CI ou GitHub Actions, Git, SAST/DAST Kubernetes, bases SQL/NoSQL, gestion des secrets Observabilité : Prometheus, Grafana, ELK Sécurité applicative (OWASP)
Offre d'emploi
Développeur Expert Python Générative AI H/F
BK CONSULTING
Publiée le
AI
Python
24 mois
60k-65k €
325-650 €
Paris, France
Intégrez une équipe dédiée à la conception et au déploiement d'applications data innovantes, fiables et scalables, exploitant des algorithmes de pointe en Machine Learning (ML) et IA Générative (LLM). Votre mission : contribuer à la transformation technologique en explorant le potentiel de l'IA et de la GenAI pour identifier de nouveaux cas d'usage et optimiser des solutions concrètes. Environnement technique Langages et compétences clés : Python (expertise requise) Go (notions souhaitables) PL/SQL (maîtrise requise) Technologies associées : Modèles de langage (LLM) Unités de traitement graphique (GPU) Méthodologie : Développement en mode Agile (analyse technique, documentation, tests, revues de code, collaboration avec les équipes infrastructure). Missions principales Développement et innovation : Concevoir des applications traditionnelles intégrant des services d'IA Générative. Participer à la construction de plateformes IA scalables et adaptables à divers domaines métiers. Intégrer des solutions IA robustes pour créer de la valeur ajoutée. Maintenance et amélioration : Assurer le support et l'évolution d'une plateforme basée sur des LLM (ex : outil de conseil ESG). Veiller à son disponibilité et à son enrichissement continu (nouveaux modèles, techniques, cas d'usage). Coordination et collaboration : Travailler au sein d'une équipe internationale (répartie sur plusieurs sites). Gérer les défis techniques, fonctionnels et organisationnels au quotidien. Participer activement à un cycle de développement logiciel Agile.
Mission freelance
Tech Lead Power App
CAT-AMANIA
Publiée le
Power Apps
12 mois
400-590 €
Charleville-Mézières, Grand Est
Dans le cadre du renforcement de notre équipe digitale, nous recherchons un Tech Lead Power Apps / Dataverse pour concevoir, structurer et faire évoluer des applications métier à forte valeur ajoutée au sein de l’écosystème Microsoft Power Platform . Le poste s’inscrit dans une vision long terme autour de l’IA Microsoft , avec l’intégration progressive de Copilot et des usages d’IA générative au cœur des processus métiers. 🧠 Tes missions : Concevoir l’architecture des solutions Power Apps (Canvas & Model-Driven) Définir et optimiser les modèles de données sous Dataverse Encadrer techniquement une équipe de développeurs Power Platform Garantir les bonnes pratiques (sécurité, performance, maintenabilité, gouvernance) Participer aux choix d’architecture et aux arbitrages techniques Concevoir et automatiser des workflows via Power Automate Être force de proposition sur l’usage de Copilot et de l’IA générative dans les applications métiers Accompagner les métiers dans l’adoption des solutions digitales augmentées par l’IA 🤖 IA & vision Microsoft (un vrai plus) Sans être obligatoire, une sensibilité forte à la vision IA de Microsoft est recherchée : Intérêt pour Copilot (Power Platform, Microsoft 365, Dataverse) Compréhension des enjeux d’ IA générative dans les applications métiers Capacité à identifier des cas d’usage concrets : aide à la saisie intelligente analyse de données automatisation avancée assistants métiers Vision responsable de l’IA (sécurité, gouvernance, sobriété des usages) 🔧 Stack & environnement Power Apps (Canvas, Model-Driven) Dataverse Power Automate Copilot / AI Builder / services IA Microsoft Intégrations via API / Connecteurs / Azure AD Environnement Microsoft 365 & Azure
Mission freelance
DATA SCIENTIST - sénior
Geniem
Publiée le
Data science
Dataiku
Machine Learning
6 mois
Lille, Hauts-de-France
Pour compléter une équipe transverse : Data Engineer, Data Scientist, Data Analyst et MLOps Elle assure également le lien avec la Global Tech & Data Platform . Cette plateforme construit et maintient les produits liés à nos infrastructures et notre transformation vers le Cloud GCP, assurant ainsi l’efficacité opérationnelle sur lesquelles reposent nos plateformes métiers. Votre mission : En lien avec notre philosophie Data In Product, vous êtes responsable de : La création de solutions et applications ML/IA de pointes, pour mise en production, La modélisation et l’industrialisation de modèles produits au service des BUs de la plateforme, L’élaboration d’un cadre de bonnes pratiques au sein de la guilde Data du domaine, L’accompagnement et l’acculturation des métiers sur les bonnes pratiques de l’exploitation de la data. Vous êtes vous-même sensible à l’approche Data Driven de nos produits, L’intégration des applications ML dans nos produits, en lien avec les équipes métiers, La mise en place de modèles statistiques pour résoudre les problématiques identifiées, La collecte de données, la construction de Data Marts et le déploiement de modèles (end-to-end PoC), La connaissance des métriques de base, et les principes d’évaluation de la qualité des modèles obtenus, et leur relation avec les indicateurs de performances Métier, La veille technologique pour orienter et être force de proposition sur l’animation de la backlog du Data Socle COMPÉTENCES REQUISES/ Technique : Python, SQL, GCP (BigQuery, GCS, ...), Pipeline MLOps, Linux, Modélisation de données Méthodologique : Agilité, Github Langues : Français, Anglais
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
587 résultats
Contrats
1
1
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois