Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 561 résultats.
CDI

Offre d'emploi
Ingénieur de production/Devops CDI (H/F)

Publiée le
Ansible
Apache
Azure DevOps

45k-50k €
Nantes, Pays de la Loire
Nous recherchons un(e) ingénieur(e) de production pour rejoindre notre client grands comptes dans le secteur bancaire basé à Nantes. Vos missions : Exploitation & supervision Garantir le bon fonctionnement des traitements batch et flux applicatifs. Superviser et gérer les chaînes via Control-M , VTOM . Surveiller et administrer les serveurs applicatifs Apache , IBM WebSphere . Diagnostiquer, analyser et résoudre les incidents de production. Participer au dispositif d’astreinte (selon planning). Industrialisation & automatisation Développer et maintenir des scripts d’automatisation (Shell, Python, PowerShell…). Contribuer à l’amélioration des pipelines CI/CD (Jenkins, GitLab CI…). Automatiser les déploiements applicatifs et l’industrialisation des environnements. Intégration & projets Préparer et accompagner les mises en production des applications. Travailler avec les équipes de développement pour fiabiliser les livrables. Réaliser tests de non-régression et de performance. Documentation & conformité Rédiger et mettre à jour la documentation technique. Respecter les normes de sécurité et les contraintes réglementaires du secteur bancaire. Compétences techniques : Ordonnancement : Control-M , VTOM . Serveurs applicatifs : Apache HTTP Server , IBM WebSphere Application Server (WAS). OS : Linux/Unix, Windows Server. Scripting : Shell , Python , PowerShell . CI/CD : Jenkins, GitLab CI, Ansible, Azure DevOps. Connaissances Docker/Kubernetes appréciées. Expérience bancaire = un plus. Poste à pouvoir en CDI dès que possible
Freelance
CDI

Offre d'emploi
Ingénier Devops basé à Lille

Publiée le
AWS Cloud
Datadog
FLUXCD

2 ans
40k-61k €
100-500 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Ingénieur Devops basé à Lille. Objectif : L'objectif de la mission sera : - d'assurer l'exploitation des applications - de répondre aux demandes d'installation des livrables fournit par notre CDS - d'aider au diagnostic lors d'incidents ou de debug - En parallèle, il participera et travaillera en partenariat avec le PO technique sur le rebuild/refactoring afin de répondre à des enjeux de scalabilité et d'optimisation des coûts de l'architecture. - d'assurer les astreintes PIV & SIDH (1 semaine par mois) La mission nécessite un réel investissement tant le projet est vaste et pluriel dans sa partie technique. Il y a beaucoup à apprendre et on sort souvent de sa zone de confort pour répondre efficacement aux exigences des clients. Livrables • Garant de la bonne application des processus de production en transverse : évolutions et créations des stacks techniques • Garant de la cohérence de bout en bout des différents environnements • Organisation et pilotage de la gestion des événements impactant la production • Porte une vision auprès du domaine sur le RUN et facilite la priorisation de sujets d'amélioration • Accompagnement des équipes sur le delivery/recette, analyse des anomalies et facilitateur sur la communication inter-domaine au sein du domaine • Pilotage les incidents majeurs • Accompagne la réalisation de ces sujets ou les porte opérationnellement en fonction des besoins Activités détaillées : - Contribuer au développement, à l'évolution et à la maintenance des outils d'industrialisation - Assurer le déploiement en environnement de préproduction et production des livrables fournit par notre CDS - Assurer le run de l'application en production (suivi de la QoS, monitoring, supervision, Incidentologies, debug et analyses) - Accompagner notre CDS dans leur intégration de livrable sous AWS - Accompagner les équipes support clients dans l'analyse et la résolution des incidents - En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus - Dans un contexte agile, être dans un esprit d’amélioration continue. - Vous concevez et développez les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. - Vous êtes référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements - Vous accompagnez l’équipe sur l’adoption des bonnes pratiques et nos outils DEVOPS
Freelance

Mission freelance
Concepteur Développeur Big Data

Publiée le
Apache Spark
AWS Cloud
Azure

12 mois
400 €
Courbevoie, Île-de-France
Télétravail partiel
Mission Concepteur Développeur Big Data – Société de l'Énergie Localisation : Courbevoie (3 jours/semaine sur site) Tarif max : 400€/jour Démarrage : 05/01/2026 Durée : 12 mois (fin 04/01/2027) – prolongeable Expérience requise : 4-5 ans minimum Prestations principales : Analyse besoins RH/Finance + rédaction spécifications techniques Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake) Intégration sources données/API + contrôle qualité Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark Optimisation performances (partitionnement, tuning clusters) Tests unitaires/intégration + revues code Maintenance évolutive, support incidents, veille techno Compétences obligatoires : Big Data, Hadoop, Spark, Python PostgreSQL, Databricks Livrables : Spécifications techniques + diagrammes Code source/scripts + tests complets Documentation exploitation + rapports performances Plan déploiement/rollback Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance . Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop) , les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP) , afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.
Freelance

Mission freelance
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps

Publiée le
Big Data
Cloudera

6 mois
400-440 £GB
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps Mise en place d'outils IA/Data pour les équipes à fortes valeurs ajoutées tout en gardant les nombres au stricte minimum. Mise en place et gestion des pipelines CI/CD en mode GitOps Utilisation des systèmes de monitoring et d'alerting (ex. Victoria Metrics, Grafana). Collaboration étroite avec les équipes de développement et d'opérations. Analyse et optimisation des performances des applications et infrastructures. Rédaction de documentation technique et guides de procédures. Gestion des incidents et mise en œuvre de solutions préventives.
Freelance

Mission freelance
Product Owner / Business Analyst – Low Code / No Code (H/F)

Publiée le
Azure DevOps
Power Platform

6 mois
460-500 €
La Défense, Île-de-France
Nous recherchons un Product Owner / Business Analyst confirmé pour accompagner les métiers dans la conception, la réalisation et l’exploitation d’applications métiers en low code / no code . Vous interviendrez dans un environnement complexe et transverse, impliquant de nombreux métiers et cas d’usage, avec un fort lien entre les phases de Build et Run . Vous serez garant de la valeur métier, de la qualité fonctionnelle et de la bonne adoption des solutions livrées. Missions principales BUILD – Analyse métier, conception et delivery Recueillir, analyser et formaliser les besoins des différents métiers. Animer des ateliers métiers (discovery) et modéliser les processus et parcours utilisateurs. Aider à la priorisation des besoins et à l’identification des fonctionnalités à forte valeur ajoutée. Rédiger les Epics, User Stories et critères d’acceptation dans Azure DevOps . Gérer et prioriser le Product Backlog . Animer les rituels Agile (Sprint Planning, Review, Rétrospective). Piloter la recette fonctionnelle et garantir la qualité des livrables. Produire la documentation fonctionnelle, les guides utilisateurs et supports de recette. RUN – Exploitation et amélioration continue Collaborer avec la TMA pour assurer le Maintien en Conditions Opérationnelles. Analyser les incidents et dysfonctionnements dans une logique d’amélioration continue. Jouer un rôle d’interface entre les métiers et les équipes de run. Suivre et analyser les KPIs produit et proposer des axes d’optimisation.
Freelance

Mission freelance
DEVIENS #AUTEUR DE VIDEO Hadoop - Stockage et traitement des données

Publiée le
Big Data
Hadoop

4 mois
100-300 €
Saint-Herblain, Pays de la Loire
Télétravail partiel
Nous sommes une maison d'édition spécialisée dans la publication de livres et vidéos autour de l'informatique et de la bureautique. Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre vidéo qui portera sur Hadoop. "Pourquoi pas moi ? Je suis développeur(euse), expert(e) Big Data, ou formateur(trice)... et Hadoop n'a aucun secret pour moi. J’ai envie de partager mon expertise au plus grand nombre ! Participer à la création d'une vidéo me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Vous bénéficierez d'un accompagnement éditorial (sommaire, essai, méthodologie, suivi, montage vidéo...) La rémunération est proposée sous forme de forfait.
Freelance
CDI

Offre d'emploi
Architecte Cloud / DevOps OpenStack Sénior -(H/F)

Publiée le
Automatisation
CI/CD
Docker

1 an
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION : Nous recherchons un Ingénieur Cloud / DevOps expérimenté pour rejoindre une équipe en charge de la conception, du déploiement et de l’exploitation de plateformes Cloud privées basées sur OpenStack. Ce poste stratégique s’inscrit au cœur des infrastructures Cloud d’un grand groupe français. Vous interviendrez sur le build (design, déploiement, automatisation) et le run (exploitation, optimisation, sécurité) dans un environnement hautement technologique. MISSIONS PRINCIPALES : BUILD – Architecture & Automatisation : Concevoir, déployer et faire évoluer les infrastructures Cloud OpenStack. Participer à la définition des architectures techniques (HLD/LLD). Mettre en œuvre une approche Infrastructure as Code (Terraform, Ansible). Automatiser les déploiements via CI/CD (GitLab CI, Jenkins, ArgoCD…). Intégrer les bonnes pratiques DevOps et sécurité dans les pipelines. Rédiger et maintenir la documentation technique. RUN – Exploitation & Maintien en Condition Opérationnelle : Administrer et superviser les plateformes OpenStack (compute, storage, réseau). Gérer les environnements datacenter : hardware, urbanisation, capacité, obsolescence. Assurer le support de niveau 3/4 sur les incidents complexes (hardware, cloud, stockage). Analyser les métriques et optimiser la supervision (Prometheus, Grafana, ELK…). Intégrer et appliquer les exigences de sécurité (IAM, patching, durcissement, audits).
Freelance

Mission freelance
Technical Lead – AI Agentic Platform

Publiée le
CI/CD
DevOps
Docker

1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Une grande entreprise internationale lance une nouvelle plateforme d’IA agentique destinée à orchestrer, héberger, sécuriser et superviser plusieurs agents IA autonomes. Dans ce cadre, l’entreprise recherche un Technical Lead expérimenté pour piloter la construction technique complète de cette plateforme innovante. Missions : En tant que Technical Lead, vous serez responsable de : Build & Architecture : Construire l’infrastructure cloud de la plateforme (GCP/AWS/Azure). Implémenter les composants sélectionnés (LLM, orchestrateurs, agents, vector databases…). Assurer l’intégration avec les autres briques IT internes. DevOps / MLOps : Mettre en place les pipelines CI/CD, templates et chaînes d’intégration continue. Travailler avec les outils internes : Jenkins, Camunda, XLDeploy. Assurer la conteneurisation et l’orchestration (Docker, Kubernetes). Observabilité & Monitoring : Mettre en place le monitoring et l’alerting (Dynatrace, PagerDuty). Suivre capacité, performance et disponibilité. Sécurité : Implémenter les bonnes pratiques de sécurité cloud et IA. Gérer l’accès sécurisé, le chiffrement, la gouvernance. Documentation & Expertise : Rédiger la documentation d’exploitation / RUN. Former les équipes internes et jouer un rôle de mentor. Fournir les rapports de performance et de scalabilité. Livrables attendus : Architecture physique détaillée Prototype fonctionnel Plateforme prête pour la production Documentation complète Rapports de performance Sessions de transfert de connaissances
Freelance

Mission freelance
Data engineer - Reconstruction modèle tabulaire – SQL / DAX

Publiée le
DAX
SQL

15 jours
Asnières-sur-Seine, Île-de-France
Télétravail partiel
Data engineer - Reconstruction modèle tabulaire – SQL / DAX - 15 JOURS Contexte & objectif de la mission L’entreprise recherche un Data Engineer opérationnel pour intervenir sur un environnement décisionnel existant présentant des problèmes de : redondance de données , manque de fiabilité / véracité , performances insuffisantes dans les rapports et calculs, modèle tabulaire (cube) devenu difficile à maintenir. L’objectif de la mission est de reconstruire le modèle tabulaire , fiabiliser les sources, optimiser les performances et remettre le datamart sur des bases saines. Missions principales Analyser l’existant : tables SQL, flux, relations, modèle tabulaire actuel. Identifier les causes de redondance, d’incohérences et de problèmes de performances. Proposer une modélisation cible optimisée (star schema, normalisation, référentiels). Reconcevoir ou reconstruire le modèle tabulaire (VertiPaq) dans les bonnes pratiques. Reprendre les mesures DAX : fiabilisation, optimisation, documentation. Améliorer la qualité, la cohérence et la fraîcheur des données. Mettre en place les optimisations SQL (indexation, refactor, vues, partitionnement si nécessaire). Documenter les travaux réalisés et transmettre les bonnes pratiques. Livrables attendus Nouveau modèle tabulaire propre, performant et stable Refonte ou nettoyage des tables SQL sources Mesures DAX revues et fiabilisées Optimisations performances (SQL + DAX + modèle) Documentation technique Plan d’amélioration continue si nécessaire Environnement technique MS SQL Server SSAS Tabular / VertiPaq DAX Modélisation BI MS + Visualisation PowerBI Entrepot de données : Talend
Freelance

Mission freelance
Data Steward H/F/NB

Publiée le
Data governance
Migration
Modélisation

60 jours
400-480 €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre de la transformation digitale des processus RH pour notre client du secteur distribution/retail , nous déployons une plateforme RH globale , couvrant un HR Core et plusieurs modules de gestion des talents dans de nombreux pays. Pour assurer le succès de cette migration à grande échelle, nous recherchons un Data Steward expérimenté et organisé , intégré à l’équipe Data Governance People . Vous serez le lien entre les fournisseurs de données, les Data Owners et l’équipe Data Migration, avec pour objectif principal de préparer et garantir la qualité des données pour le Go-Live . Vos missions principales : Accompagner les équipes locales pour la collecte, extraction et intégration des données RH . Assurer la compréhension et le respect des templates de données , des formats et des standards de qualité. Vérifier les formats et contenus des fichiers collectés (contrôles d’intégrité, conformité aux types de données). Coordonner la collecte et le suivi des livraisons de fichiers de données. Assister les Data Owners et fournisseurs locaux pour identifier et corriger les anomalies détectées. Maintenir la documentation du data catalog incluant métadonnées, règles métier et data lineage. Collaborer avec les équipes techniques et digitales pour garantir le respect des normes de qualité et de sécurité des données (RGPD). Missions secondaires : Contribuer à la mise en place des standards et KPI de qualité des données. Participer à la formation et au support des équipes locales pour assurer l’adoption des processus de gouvernance des données.
Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

Publiée le
BI

24 mois
250-500 €
Paris, France
Télétravail partiel
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
CDI

Offre d'emploi
Data Analyst spécialisé données RH & qualité de données

Publiée le
Azure
Data quality
Google Cloud Platform (GCP)

42k-60k €
Paris, France
Télétravail partiel
📢 Recrutement CDI – Data Analyst spécialisé données RH & qualité de données Nous recrutons un Data Analyst en CDI pour intervenir sur des sujets de fiabilisation et structuration de données RH et identités au sein d’un environnement data transverse et stratégique. 🎯 Votre rôle Vous interviendrez sur des données collaborateurs (internes, externes, organisations, comptes) afin d’en garantir la cohérence, la fiabilité et l’exploitabilité. Vous travaillerez en lien avec des équipes data, RH et sécurité sur des flux multi-sources. 🛠 Vos missions principales Analyser et comprendre des données issues de plusieurs systèmes (notamment RH) Détecter les incohérences, doublons et données manquantes Mettre en place des règles de contrôle et d’amélioration de la qualité des données Participer à la structuration d’un référentiel de données fiable Produire des indicateurs et tableaux de bord de suivi (qualité, complétude, fiabilité) Documenter les jeux de données et les règles associées
Freelance
CDI

Offre d'emploi
Data Engineer – Elastic Stack Expert

Publiée le
Apache Kafka
ELK
Intégration

1 an
Île-de-France, France
Télétravail partiel
Nous recherchons pour notre client Grand-Compte un Ingénieur Data , Expert ELK pour: accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données L’objectif est de passer d’une logique très outillée/infrastructure à une approche orientée usages data & métiers . Refonte complète de l’offre logs existante (tous types de logs : applicatifs, systèmes, réseau, sécurité) Forte volumétrie et enjeux de standardisation, qualité et exploitabilité de la donnée Missions Concevoir et mettre en œuvre les chaînes de collecte et d’ingestion des logs Implémenter et industrialiser les cas d’usage observabilité pour les équipes opérationnelles Accompagner les équipes métiers et techniques dans l’exploitation des logs Développer des dashboards et visualisations avancées (Kibana, évolution possible vers Grafana) Intervenir sur l’ensemble du cycle data : collecte → transformation → stockage → restitution Participer à l’évolution de l’offre groupe et à la structuration des bonnes pratiques Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source)
Freelance

Mission freelance
Un(e) Data Analyste - Maintenance évolutive d'une application de reporting

Publiée le
IBM DataStage
Microsoft Power BI
Microsoft SQL Server

6 mois
400-480 €
Bois-Colombes, Île-de-France
Télétravail partiel
Data Analyste Expert - Maintenance évolutive d'une application de reporting Contexte : Nous recherchons pour un(e) consultant(e) Data Analyste BI confirmé(e) pour assurer la maintenance évolutive et contribuer à l'amélioration continue d'une application de reporting interne dédiée au suivi commercial. Cette application joue un rôle clé en collectant des données stratégiques et en les mettant à disposition des utilisateurs internes afin de suivre et analyser la performance commerciale. Missions : En tant que Data Analyste confirmé, vous serez chargé(e) de la gestion opérationnelle de l’application de reporting et participerez activement à un projet stratégique visant à optimiser le processus de collecte et de mise à jour des données. Ce projet a pour objectif de simplifier les flux de données, réduire au minimum les traitements manuels, et accélérer le cycle de mise à jour des informations tout en garantissant une qualité de données irréprochable. Plus spécifiquement, vous serez amené(e) à : • Assurer la maintenance évolutive de l'application existante, en veillant à son bon fonctionnement et à l’intégration des évolutions nécessaires pour répondre aux besoins internes. • Contribuer à l'amélioration du processus de reporting en travaillant sur l’automatisation de la collecte de données et l'optimisation des traitements, afin de simplifier le processus tout en préservant la fiabilité et la précision des données. • Collaborer avec l’équipe interne pour définir les besoins fonctionnels et techniques, et pour déployer des solutions adaptées à l’amélioration de l'analyse de la performance commerciale. • Apporter une expertise technique et fonctionnelle pour l’optimisation des outils de reporting et pour le développement de nouvelles fonctionnalités. • Prendre en charge la maintenance des solutions déployées en apportant des améliorations continues et en veillant à leur adéquation avec les exigences métiers. • Effectuer une analyse détaillée des données afin d’identifier des axes d’amélioration dans les processus existants et proposer des solutions efficaces et adaptées aux enjeux commerciaux de l’entreprise. • Assistance aux utilisateurs en faisant preuve de pédagogie pour les autonomiser. Aide à la gestion du changement. Compétences techniques et linguistiques requises Profil recherché : • Expertise confirmée en Business Intelligence, avec une maîtrise des outils d’extraction et de traitement de données, et des technologies associées. • Maitrise de l’utilisation de SQL pour sélectionner des données • Compétences solides en analyse de données, avec une capacité à traduire des besoins métiers en solutions techniques. • La connaissance d’outils de reporting serait un plus. • Capacité à travailler de manière autonome et en équipe. • Rigueur et souci de la qualité des données, avec une forte orientation résultats. Les solutions BI mise en œuvre actuellement chez le client sont basées sur les technologies suivantes : • Oracle • IBM Datastage • Power BI • SAP Business Object 4.2 • Outil de data virtualization comme Denodo • Sqlserver Compétences requises • Une expérience significative d’un minima de 4 années dans l’intégration de systèmes décisionnels • Une expertise concrète en environnement BI • De solides connaissances ainsi qu’une expérience significative dans la manipulation de données. • Des compétences fonctionnelles • Un fort sens de l’analyse et de la pro activité • Capacité rédactionnelle • Excellent relationnel • Maîtrise de l’anglais indispensable (lu, parlé, écrit) Autres compétences appréciées • Connaissance du métier de l’assurance Durée de la Prestation Régie, pour une période de 6 mois renouvelable.
Freelance

Mission freelance
Ingénieur Data | BI - Confirmé - freelance - Rouen H/F

Publiée le
Gouvernance

1 mois
76000, Rouen, Normandie
Télétravail partiel
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Votre mission (si vous l’acceptez) : - Concevoir, développer et maintenir les flux d’alimentation des modèles BI. - Structurer et optimiser les modèles de données pour les besoins de pilotage. - Collaborer avec les équipes BI et les métiers pour garantir la cohérence des données. - Participer à l’industrialisation et à la modernisation de la plateforme data. L’environnement technique : - SQL Server (modélisation, optimisation, ingestion, transformation) - SSIS / ADF ou équivalent pour les pipelines d’intégration - Power BI (compréhension des modèles, optimisation des sources) - Une connaissance de Microsoft Fabric serait un plus apprécié. - Maîtrise des bonnes pratiques de data engineering : qualité, performance, sécurité, gouvernance. Vous, notre perle rare : - Expérience confirmée en data engineering dans un environnement Microsoft. - Capacité à travailler en autonomie tout en collaborant avec les équipes BI et IT. - Rigueur, sens de la qualité, capacité à documenter et à structurer. Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : TJ en fonction de votre expertise et expérience sur un projet similaire. Le poste propose 1 journée de télétravail par semaine (non négociable). Contrat 3 mois renouvelable. Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
Lead Machine leaning engineering

Publiée le
FastAPI
Flask
Gitlab

12 mois
470-510 €
Île-de-France, France
Télétravail partiel
Je recherche un(e) Lead Machine Learning Engineer pour accompagner la Direction Data d’un grand média français dans la mise en place d’une équipe dédiée aux sujets de recommandation et de personnalisation. 👤 Mission Vous interviendrez au cœur d’une équipe Data (PO, Data Scientist, Lead ML, ML Engineer) pour concevoir, déployer et industrialiser des modèles de machine learning en production, dans un environnement full Google Cloud. 💼 Compétences requises : • 5+ années d’expérience en environnement Data / Machine Learning • Déploiement en production de modèles ML (scalabilité, haute perf) • Maîtrise de Google Cloud (Vertex AI, BigQuery, Cloud Run, Composer, CloudSQL, IAM) • Très bonnes compétences en Python et SQL • Connaissances de Flask, FastAPI, SQLAlchemy, Pgvector, Pandas, Hugging Face • Expérience en Terraform / Terragrunt • Très bonnes connaissances en ML, Deep Learning, systèmes de recommandation • Maîtrise de GitLab & GitLab CI/CD • Capacité à vulgariser, communiquer et accompagner une équipe • Expérience des méthodes Agile (Scrum / Kanban) 📍 Modalités : • Présence sur site requise (~50% du temps) • Expérience attendue : Sénior • Environnement : Paris • Matériel sécurisé requis (chiffrement, antivirus, etc.)
4561 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous