Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 143 résultats.
Freelance
CDI

Offre d'emploi
Architecte Solution Azure + Business Central ou F&O

Publiée le
Azure
Microsoft Dynamics

12 mois
55k-60k €
600-700 €
Lille, Hauts-de-France
Contexte : Garantir la cohérence, la robustesse et la scalabilité de l’architecture cible autour de Microsoft Business Central et de son écosystème Azure, dans un contexte de déploiement international multi-BU. L’Architecte Azure sera le garant de la vision technique globale, capable de challenger les choix proposés par Microsoft et l’intégrateur, et d’assurer la maîtrise de l’architecture finale. Conception de l’architecture ● Définir et documenter l’architecture cible sur Azure en lien avec Business Central, Power Platform, Microsoft Fabric, Entra ID et les solutions de Data Management. ● Challenger la vision architecture fournie par l’éditeur et l’intégrateur (scalabilité, sécurité, intégration, coûts) adaptés aux cas d’usage Kiloutou ● Assurer la cohérence des modules déployés par BU, tout en intégrant les adaptations locales. Identité, sécurité et conformité : en collaboration avec l’architecte sécurité / Responsable sécurité ● Piloter l’intégration de Microsoft Entra ID avec l’Active Directory on-premise (IAM, RBAC, authentification, habilitations). ● Garantir la conformité aux standards sécurité (Zero Trust, GDPR, standards groupe). ● Appliquer les principes de gouvernance API et des habilitations cross-BU. Intégration applicative et API Management ● Encadrer la mise en œuvre du Hub API (Twoday, API Management) et son interaction avec Business Central et les autres systèmes (MDM, Power Apps, Snowflake, etc.). ● Définir ou appliquer les standards d’API (sécurité, monitoring, SLA). ● Garantir la maintenabilité et la performance des flux inter-systèmes. ● Garantir l'observabilité des applications du programme Data & Analytics : en collaboration avec les équipes Data ● Définir ou appliquer les patterns d’intégration des données ERP vers Snowflake, Microsoft Fabric, PowerBI et Tableau. ● Garantir la qualité et la gouvernance des données partagées au niveau international. ● Optimiser les architectures data pour la performance et le coût. Support aux BU internationales ● Adapter l’architecture aux spécificités locales (réglementaires, techniques, organisationnelles ou business). ● Définir des principes modulaires pour permettre une déclinaison par BU tout en gardant une cohérence groupe. ● Coacher les équipes locales sur l’usage des composants Azure et Power Platform. Pilotage & collaboration ● Travailler étroitement avec les équipes produit (Business Central), les intégrateurs, les équipes IT locales et globales. ● Établir et maintenir la cartographie applicative et technique avec l’équipe Architecture d’entreprise ● Participer aux comités d’architecture et sécurité (CAS), en portant la vision architecture du programme ⸻ Compétences requises • Cloud & Azure : maîtrise approfondie d’Azure (Entra ID, Azure DevOps, API Management, Azure Files, Fabric). • ERP & Dynamics : bonne compréhension de Business Central et de ses mécanismes d’extension (AL, DevOps, modules). • Data & Analytics : connaissance des patterns d’intégration vers Snowflake, PowerBI, Tableau, Fabric. • Sécurité & IAM : expertise Active Directory, synchronisation AD Connect, RBAC, Zero Trust. • Intégration & API : gouvernance API, middleware, monitoring, performance. • Méthodologie : architecture d’entreprise (TOGAF, Zachman, modulaire/composable), DevOps, Agile. • Soft skills : capacité à challenger les partenaires (Microsoft, intégrateur), communication claire, leadership transverse, sens politique dans un contexte international. Profil recherché • Bac+5 (école d’ingénieur, master informatique). • Expérience confirmée (8+ ans) en architecture cloud, dont 3+ ans sur Azure. • Expérience significative dans des programmes ERP internationaux (idéalement Dynamics 365 Business Central ou F&O). • Connaissance des environnements multi-BU et des enjeux de localisation/régionalisation. • Anglais courant (environnement international). ⸻ Livrables attendus • Schéma directeur de l’architecture cible (global + déclinaisons BU) du programme. • Cadre de gouvernance API et data. • Standards d’habilitations et de sécurité. • Modèle de déploiement international (blueprint Azure + Business Central). • Cartographie applicative et technique mise à jour. • Roadmap technique alignée avec la roadmap produit.
CDI

Offre d'emploi
Cloud Data Engineer

Publiée le
Big Data
Cloud

60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
CDI

Offre d'emploi
Architecte Data spécialisé Databricks (F/H)

Publiée le

80k-90k €
Paris, France
Télétravail partiel
Data Architect spécialisé Databricks (F/H) - CDI - Paris 12 - 80-90K€ Contexte Vous rejoindrez la Data Factory , une structure d'excellence au sein du département "Fabrique Digitale" de notre client. Cette équipe accompagne des projets complexes de transformation data en rassemblant l'ensemble des compétences nécessaires : BI, Big Data, Data Analytics, Dataviz et Data Science. La Data Factory adresse des enjeux stratégiques majeurs : construction de référentiels de données, datawarehouses opérationnels, outillages de simulation et prévisions, datalakes, algorithmes prédictifs et tableaux de bord décisionnels. Vous piloterez le déploiement de la plateforme data groupe qui repose sur des concepts architecturaux innovants dont la notion de Data Mesh et des offres de self-service métier. De nouveaux concepts architecturaux structurent la plateforme. Votre expertise sera mobilisée pour : Fournir une expertise d' Architecte Solution orientée usages métiers, avec une connaissance approfondie des projets data en cloud public Servir de référent technique auprès des squads métiers en mode Agile pendant les phases de build et transition vers le run Challenger les besoins et imposer les bonnes pratiques du cadre de cohérence technique Assurer un relationnel excellent avec les équipes projets et les métiers Vous cumulerez les responsabilités d'un architecte opérationnel et d'un super-tech-lead, avec une implication quotidienne auprès des équipes de développement. Missions : Pilotage technique et accompagnement des projets Fournir l'expertise technique plateforme aux squads projets, du cadrage jusqu'à la mise en service Représenter la plateforme data groupe lors des cérémonies Agile (Go/NoGo, réunions stratégiques) Assister les tech leads dans leurs choix architecturaux et la rédaction des DAT (Document d'Architecture Technique) Identifier et évaluer les risques techniques (fonctionnalités manquantes, impacts planning Onboarding et accompagnement des équipes Réaliser l'onboarding des squads projets pour l'architecture plateforme et les bonnes pratiques Assister aux entretiens de recrutement des tech leads et développeurs métier Coacher les équipes pour optimiser les solutions et mettre en place des méthodologies de monitoring Sensibiliser à la gouvernance des données, en particulier données sensibles et données à caractère personnel Supervision et coordination Superviser les interventions des Data Ingénieurs plateforme (ingestion, exposition de données) Coordonner avec les leads de pratique (Data Management, Dataviz, ML Ingénieur) S'assurer de la validation architecturale de bout en bout avec les autres SI Participer aux phases de VSR (Verification & Service Readiness) Support et exploitation Contribuer au MCO (Maintien en Condition Opérationnelle) en tant que support N3 Participer à la résolution d'incidents en production Réaliser les actes de restauration du service Conduire l'analyse des root causes des dysfonctionnements Documentation et qualité Vérifier la complétude des contrats d'interface fournis par les squads projets Garantir la qualité technique et documentaire des livrables Contribuer à l'amélioration des briques socle et leur cadrage technique Contributions transversales Apporter votre expertise de data engineer et d'architecte opérationnel à la Data Factory Contribuer à des PoC et études ciblées Participer aux cérémonies Scrum Agile Réaliser des démos et présentations auprès des clients Livrables attendus Développements et scripts demandés Documents de cadrage, DAT et rapports d'avancement Macro estimations budgétaires et offres de solution technique Analyses de risques techniques et audits de faisabilité Cahiers de tests et procédures d'installation en production Documents de paramétrage et procédures de maintenance Rapport de fin de mission détaillant la démarche, développements réalisés, difficultés et solutions apportées
Freelance

Mission freelance
Ingénieur(e) Industrialisation / Process / Méthodes de Production – Industrie 4.0

Publiée le
IoT

1 an
500 €
Liège, Belgique
Télétravail partiel
Accompagner notre client dans la mise en place, l’optimisation et la digitalisation de vos processus de fabrication , en intégrant les principes et technologies de l’ Industrie 4.0 . L’objectif est d’améliorer la performance industrielle, la fiabilité des procédés et la compétitivité des lignes de production. 1. Analyse et optimisation des processus de production Étude des flux existants, identification des points de blocage et des leviers de performance. Proposition et mise en œuvre de plans d’amélioration continue. Intégration d’outils d’automatisation, de robotisation et de digitalisation des ateliers. 2. Conception et formalisation des méthodes de fabrication Collaboration avec les équipes mécatronique, automatisme et robotique . Élaboration des gammes de fabrication , modes opératoires et standards de process . Définition des indicateurs de performance et de qualité associés. 3. Pilotage des phases d’industrialisation Rédaction des cahiers des charges techniques . Sélection et validation des équipements. Coordination des essais, qualifications et mise au point des procédés automatisés. 4. Gestion de projet industriel Suivi de planning, de budget et de ressources. Animation des réunions d’avancement et reporting auprès du client. Interface technique entre les différents acteurs du projet. 5. Accompagnement au déploiement Support technique lors de l’installation des équipements sur site. Formation des équipes de production et de maintenance. Élaboration des plans de prévention, procédures et documentations techniques. 6. Amélioration continue et digitalisation Analyse des données issues des systèmes connectés (IoT, MES, ERP…) . Exploitation des retours d’expérience pour l’optimisation des performances. Veille technologique sur les outils et méthodes de l’ Industrie 4.0 (automatisation, data management, IA industrielle…).
Freelance

Mission freelance
Architecte réseaux

Publiée le
Ansible
Architecture
Azure

1 an
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Architecte Réseau et Sécurité afin de rejoindre l'équipe Architecture Technique de la direction Infrastructures et Technologies et intégré aux équipes opérationnelles Missions A ce titre vous aurez la charge : - de concevoir le design des solutions Réseaux dans le cadre des programmes technologiques: - de définir la feuille de route de la transformation technologique associée - de garantir l'implémentation de la feuille de route en participant activement aux projets de déploiement - d'assister les équipes de production via votre expertise sur les solutions - d'identifier les problèmes et construire les plans de correction et d'amélioration L'ensemble de ces missions doivent être réalisées dans le respect des bonnes pratiques, des exigences de sécurité et de conformités De nature passionnée, curieuse, et persévérante, vous souhaitez intervenir dans le cadre de missions challengeantes et variées. Vous possédez déjà une expérience concluante à un poste similaire. Vous êtes en mesure d’interagir avec des équipes hétérogènes & vous avez une vision 360° du système d'information. Vous disposez d'une expertise confirmée et d'un leadership qui permet de fédérer les équipes qui collaborent avec vous sur les programmes. Environnement International / Cloud Hybride: Cloud Privé, Azure, OVH/vmware, GCP, OCI / Wan International Environnement techniques Sécurité: Fortinet, Palo Alto Netskope LAN Cisco, Meraki, Huawei SDWAN WAN: Cisco ASR, Huawei, BGP Cloud: Azure, GCP, OCI Cloud Privé: Ovh (Vmware) Datacenter: Huawei DCS IaC: Terraform, Ansible
Freelance
CDI

Offre d'emploi
Data Engineer Python / AWS

Publiée le
AWS Cloud
PySpark
Python

3 ans
Paris, France
Descriptif du poste Le prestataire interviendra comme développeur senior / Data Engineer sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series. Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Conception et développement d'outils d'aide à la décision • Conception et développement de nouvelles architectures data • Collecte, ingestion, traitement, transformation et restitution des données (météo, fundamentales..) • Optimisation des coûts et des performances • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Maintenance évolutive et support technique / accompagnement des utilisateurs (analystes, data scientists...) • Coaching de l'équipe autour des thématiques Big Data et AWS : workshops, présentations…
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance

Mission freelance
Data Scientist - GenAI

Publiée le
Docker
FastAPI
Gitflow

6 mois
Paris, France
Télétravail partiel
Métiers et Fonctions : Data Management Data Scientist Spécialités technologiques : Big Data genAI Type de facturation : Assistance Technique (facturation avec un taux journalier) Compétences : Technologies et Outils : Dockergenai, Gitlab, FastAPI, Python, Gitflow, genai Méthodes / Normes : Agile Langues : Anglais Secteurs d'activités : Banque Description de la prestation : Dans le cadre d'une mission pour un client du secteur des assurances, recherche d'un Data Scientist pour soutenir une stratégie IA et participer à un projet clé visant à analyser les formulations et tendances. Objectifs principaux : Réviser et numériser le portefeuille de traités (contrats, polices), en assurant une gestion correcte des documents liés. Mettre en œuvre des jumeaux numériques selon le modèle de données défini, en garantissant cohérence et intégration parfaite des données. Mettre en place des contrôles qualité stricts pour l'assurance de la fiabilité des données saisies. Élaborer une documentation complète pour faciliter l'intégration des données dans les modèles analytiques. Livrables : Code et documentation conformes à la définition du travail terminé, couvrant un large scope de contrat.
Freelance

Mission freelance
consultant(e) SAP MDG

Publiée le
SAP

3 ans
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) consultant(e) SAP MDG . Skills : SAP - MDG - MDM - anglais Mission : -analyser les besoins métiers en matière de gouvernance et gestion des données -définir la stratégie MDM -concevoir et modéliser -mettre en place les règles MDM dans MDG -participer aux projets de migrations -assurer le support fonctionnel -produire la documentation MDM/MDG (fonctionnelle, technique, gouvernance) -former les utilisateurs N'hésitez pas à revenir vers moi pour des informations complémentaires.
Freelance

Mission freelance
Développeur AWS Data et spark

Publiée le
API
AWS Cloud
AWS Glue

1 an
540-580 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Freelance
CDI

Offre d'emploi
Technicien data center (Idrac/ Ilo/ DCIM/ cablage Lan/ Cablage San)

Publiée le
DataCenter Infrastructure Management (DCIM)
LAN
WAN (Wide Area Network)

3 ans
10k-33k €
100-250 €
Chessy, Île-de-France
Réalisation des gestes de Proximité Telecom en Datacenter avec déplacements possibles inter -DCs, travail en HNO, astreintes potentielles. Misson à réaliser dans l'est parisien """Réaliser du cablage LAN (étude, réalisation, validation) Réaliser du cablage SAN (étude, réalisation, validation) Réaliser testing liens fibre, cuivre : lire et comprendre un plan de frettage comprendre les plans d'urbanisation réseau d'un DC Connaitre les différentes technologies FO Savoir configurer des cartes type IDRAC,ILO ... Realisation des gestes de Proximité Telecom en Datacenter""" photométrie, réflectométrie Service Now Mainframe LAN CISCO
Freelance

Mission freelance
238332/Développeur Blueway Rennes

Publiée le
Blueway

3 mois
Rennes, Bretagne
Télétravail partiel
Développeur Blueway Rennes Recherche d'un développeur Blueway (MDM) spécification & conception réalisation des déveveloppements & tests recette support recette résolution d'incidents Environnement technique : Blueway MDM ; ESB ; API ; ArtemisMQ ; CI/CD ; Linux Prestation à Rennes & 2 jours de remote Développeur Blueway Rennes Recherche d'un développeur Blueway (MDM) spécification & conception réalisation des déveveloppements & tests recette support recette résolution d'incidents Environnement technique : Blueway MDM ; ESB ; API ; ArtemisMQ ; CI/CD ; Linux Prestation à Rennes & 2 jours de remote
Freelance
CDI

Offre d'emploi
Data Engineer Expérimenté

Publiée le
Microsoft Power BI

18 mois
40k-45k €
100-450 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions :Data Management Data Engineer Spécialités technologiques : ETL, Gouvernance des données, Intégration de données MISSIONS Notre client est engagé dans une transformation en profondeur et la modernisation de son Système d’Information. Les équipes Data, intégrées à la DSI, jouent un rôle central dans la réussite de ces projets de modernisation, tant sur le plan technologique que métier. Vous interviendrez sur plusieurs axes clés : - Conception et développement d’outils et de processus de gouvernance des données. - Mise en place d’outils de pilotage de la qualité, de la sécurité et de la traçabilité des données. - Développement de solutions et de processus visant l’amélioration continue de la qualité de service. - Participation au suivi de la production en tant que lead de l’équipe Data sur les projets de run. - Analyse des incidents de production et des tickets utilisateurs de niveau 1. - Développement et maintenance des traitements ETL Batch Data sous Semarchy xDI. - Rédaction et publication de rapports et indicateurs flash sur la qualité de service du SI Data. Vos missions : - Développer des traitements de contrôle de la qualité des données, notamment industrialisés - Assurer le suivi de production et l’analyse des incidents de premier niveau. - Traiter et résoudre les incidents liés à la qualité des données : analyser les causes, identifier et solliciter les bons interlocuteurs pour leur résolution. - Contribuer à l’amélioration continue et au renforcement de la qualité de service, en collaboration avec les équipes de Gouvernance des Données.
Freelance

Mission freelance
Data Scientist Sénior

Publiée le
Data science
Python
Rédaction technique

18 mois
150-450 €
Paris, France
Télétravail partiel
Contexte : Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Scientist Spécialités technologiques : APIs, Simulation, Optimisation linéaire, Devops MISSIONS Dans le cadre du renforcement d’une équipe dédiée à la modélisation mathématique, le client recherche un Data Scientist Senior (>5 ans d’expérience) pour intervenir sur un ensemble de sujets variés : optimisation, simulation, analyse de performance, développement de modèles et d’outils applicatifs. La prestation s’inscrit dans un environnement comprenant plusieurs applications et modèles, et non un produit unique, nécessitant une forte capacité d’adaptation et une compréhension technique rapide. Le consultant interviendra en tant que référent senior, encadrant un Data Scientist junior et garantissant la qualité méthodologique et scientifique des travaux. Livrables attendus : - Validation des algorithmes d’optimisation. - Approbation des tableaux de bord et outils d’aide à la décision. - Revue critique des recommandations stratégiques. - Validation des rapports d’analyse et des indicateurs de performance. - Documentation des standards de qualité appliqués. Missions détaillées: 1. Encadrement & supervision méthodologique - Accompagnement d’un Data Scientist junior. - Définition des standards méthodologiques, bonnes pratiques et règles de modélisation. - Validation des approches algorithmiques et statistiques. - Orientation des travaux et identification des risques techniques. - Garantie de la cohérence globale des modèles par rapport aux objectifs du programme. 2. Développement & modélisation - Développement Python. - Création d’APIs. - Intégration de modèles. - Manipulation des équations et formalismes mathématiques. Utilisation de la librairie HiGHS (optimisation mathématique) pour : - Gestion des contraintes. - Calculs d’optimisations. - Résolution de modèles linéaires / mixtes. - Capacité à comprendre et implémenter les modèles algorithmiques, pas seulement à les consommer. 3. Contrôle qualité & validation scientifique - Revue de code, audit d’architecture et bonnes pratiques Python. - Vérification de la qualité et de la cohérence des données utilisées. - Validation de la robustesse des modèles prédictifs, d’optimisation ou de simulation. - Challenge technique des résultats, scénarios et hypothèses. - Approbation finale des livrables avant diffusion. 4. Expertise & conseil : - Intervention en tant qu’expert sur les sujets complexes de modélisation. - Recommandations méthodologiques et proposition d’améliorations. - Veille technologique et scientifique sur l’optimisation, les modèles mathématiques et les outils Python. - Capitalisation des bonnes pratiques pour l’équipe. 5. Communication & coordination : - Présentation des validations et recommandations aux parties prenantes. - Interface entre les équipes techniques et la direction projet. - Participation aux comités et instances de pilotage. - Documentation des critères de qualité et des processus de validation. - Contribution à la montée en compétences du Data Scientist junior. Compétences requises : - Expertise en Python : développement d’APIs, structuration de librairies, manipulation d’équations. - Maîtrise de HiGHS ou autre solveur d’optimisation linéaire/quadratique. - Solide bagage scientifique : mathématiques, physique, modélisation, statistiques. - Capacité à travailler sur plusieurs modèles simultanément. - Très bonne communication orale et écrite. - Autonomie forte et posture de référent. Compétences appréciées : - Expérience sur des modèles mathématiques à grande échelle. - Aisance en revue méthodologique et en cadrage scientifique. - Aucun besoin de connaissance fonctionnelle métier spécifique. Expertise souhaitée Data Scientist Senior (>5 ans d’expérience)
Freelance
CDI

Offre d'emploi
Data Engineer Python/AWS

Publiée le
AWS Cloud
Flask
Python

3 ans
40k-50k €
400-550 €
Courbevoie, Île-de-France
Télétravail partiel
La Mission à réaliser se déclinera notamment à travers ces activités : • Collecte, ingestion, traitement, transformation et restitution des données • Optimisation des coûts et des performances. • Conception et développement d'outils d'aide à la décision • Maintenance évolutive et support technique / accompagnement des utilisateurs Langages & Frameworks Python v3 — Avancé (5 à 8 ans) Design Patterns / Architecture logicielle — Confirmé (3 à 5 ans) Cloud & Infrastructures AWS — Confirmé (3 à 5 ans) Data & Big Data Lakehouse Fundamentals & Database Systems — Confirmé (3 à 5 ans) Big Data Architecture & Technologies — Confirmé (3 à 5 ans) Data Management Systems — Confirmé (3 à 5 ans) Domaines fonctionnels Marchés des matières premières (Gaz, Électricité, etc.) — Junior (< 3 ans) Soft Skills / Compétences transverses Anglais — Avancé (5 à 8 ans) Esprit d’analyse et de synthèse — Avancé (5 à 8 ans) Proactivité / Prise d’initiative / Orientation solution — Junior (< 3 ans)
143 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous