Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 999 résultats.
Offre d'emploi
Expert IBM Infosphere - Data Replication
VISIAN
Publiée le
AS/400
IBM DataStage
1 an
Paris, France
Contexte Dans le cadre du programme qui vise à construire une Data Platform intégrée , la réplication des données AS/400 vers le Data Hub est un enjeu clé. IBM Infosphere Data Replication (IIDR) est l'outil en place pour assurer la synchronisation des tables de l'AS/400 (on-premise) vers PostgreSQL (Cloud) . Actuellement, le périmètre des tables répliquées est limité, mais il s'étendra significativement en 2025, avec un objectif de réplication en near-sync. Toutefois, plusieurs défis doivent être adressés : Incidents en production non résolus, liés soit à la configuration existante de IIDR, soit à des instabilités sur la base PostgreSQL. Problèmes de doublons issus de l'AS/400, nécessitant des stratégies de gestion des clés et des identifiants uniques. Difficultés de réplication des tables volumineuses, où les mécanismes standards ne permettent pas d'assurer une synchronisation efficace. Nous recherchons un Expert IBM IDR qui aura pour mission de stabiliser la solution, améliorer la scalabilité et accompagner l'élargissement du périmètre des données répliquées.
Mission freelance
Ingénieur RESEAU Datacenter IT logistique
CAT-AMANIA
Publiée le
SD-WAN
VPN
WAN
1 an
100-450 €
Lille, Hauts-de-France
L'équipe INFRALOG rassemble les compétences techniques de l'informatique logistique sur différents domaines tel que le système&réseau, les mécanisations, la sécurité, le support, et la proximité terrain. Mû par un esprit d’anticipation et de pro-activité, tu es au quotidien obnubilé par l’excellence opérationnelle et la disponibilité des outils de vos utilisateurs. “Mieux vaut prévenir que guérir” est l’un de tes leitmotivs préféré. Le pôle INFRA/RESEAU/PARNTERS est en lien direct avec le HelpDesk, les pôles OP Devices, Partners, TME AS400, les équipes NETWORK-CORE ainsi qu'avec les responsables informatiques des entrepôts. En tant qu’ingénieur Réseau, tu participeras à rendre un service de qualité sur le réseau de nos entrepôts ainsi que sur nos deux datacenters hébergeant les AS400 qui font tourner notre WMS (gestion d'entrepôts). En tant que référent INFRA/RESEAU, Tu es garant du bon fonctionnement de ton périmètre (Support de niveau 3-4) Tu apportes une amélioration des solutions mises en place Tu gères le support & l'exploitation & monitoring du réseau de nos datacenters H4AS (LAN & WLAN & SD-WAN & WAN) Tu gères le support & l'exploitation de nos VPN Tu participes à la cellule support Tu es bon communicant, à l’aise en Anglais (minimum B2)
Offre d'emploi
Data Engineer (H/F)
OBJECTWARE
Publiée le
DBT
Google Cloud Platform (GCP)
Reporting
50k-60k €
Bordeaux, Nouvelle-Aquitaine
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Engineer avec une forte appétence pour le reporting et la valorisation de la donnée. L’objectif est de structurer, industrialiser et exploiter les données afin de produire des indicateurs fiables et utiles aux métiers. Missions Concevoir, développer et maintenir des pipelines de données robustes et scalables Assurer la collecte, transformation et mise à disposition des données Participer à la modélisation des données (datawarehouse / datamart) Mettre en place et optimiser les flux via des outils d’orchestration Collaborer avec les équipes métiers pour comprendre les besoins en reporting Développer et alimenter des tableaux de bord et reportings Garantir la qualité, la fiabilité et la performance des données Participer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Environnement technique Cloud : GCP (idéalement) ETL / Orchestration : Airflow, DBT Langages : Python BI / Reporting : Power BI, Tableau ou équivalent Data : SQL, modélisation data
Offre d'emploi
Chef de Projet Data sénior décommissionnement et migration BO vers Power BI sur Saint Denis
EterniTech
Publiée le
Business Object
Microsoft Power BI
Microsoft SSIS
1 an
Saint-Denis, Île-de-France
Je cherche pour un de mes client un Chef de Projet Data sénior décommissionnement et migration BO vers Power BI sur Saint Denis Séniorité : 7 à 10 ans Démarrage : Asap Anglais correct (pro) Télétravail : 3j par semaine Localisation : Saint Denis Connaissance du monde Assurance/Assistance mandatory Résultats attendus de la mission À partir d’une liste prédéfinie d’environ 1 200 rapports Business Objects existants, l’objectif est de challenger les métiers propriétaires afin de : Décommissionner et arrêter un maximum de rapports BO non utilisés ou obsolètes. Orienter les métiers vers des rapports Power BI existants lorsque ceux-ci répondent déjà au besoin couvert par les rapports BO. En dernier recours, lorsque les deux points précédents ne sont pas applicables, migrer le nombre limité de rapports BO restants vers de nouveaux rapports Power BI. L’objectif principal est donc de réduire significativement le parc de rapports BO, de favoriser l’usage des rapports Power BI existants, et uniquement lorsque le besoin métier est avéré, de développer de nouveaux rapports Power BI en remplacement des rapports BO concernés. Formation requise De formation Bac + 5, École d'ingénieur ou cursus universitaire en informatique, statistique ou data/IA Compétence – Nice to have : Connaissance du monde de l’assurance/Assistance Qualités humaines : Être force de proposition et capacité de comprendre des problématiques techniques et construire des solutions S’intégrer dans une équipe existante Nouer une relation de confiance avec les équipes métiers Capacité à anticiper et intégrer les contraintes projet
Offre d'emploi
TECH LEAD DATA GCP
UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python
6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
Offre d'emploi
DATA ENGINEER GCP - SALESFORCE (450€ MAX)
BEEZEN
Publiée le
Google Cloud Platform (GCP)
Salesforce
1 an
40k-45k €
320-440 €
Île-de-France, France
● Formation Bac+5 (école d’ingénieur ou université) orientée informatique, ou expérience équivalente. ● Bonne connaissance de l'écosystème Salesforce (modèles de données Marketing, Financial Cloud, Data Cloud). ● Ingénierie Data : Maîtrise de SQL et de Python pour le traitement de flux. ● API & Automation : Expérience dans la consommation d’API et l'utilisation d'orchestrateurs (Airfl ow/Composer). ● Soft Skills : Rigueur méthodologique, capacité à comprendre les processus métier bancaires et esprit d'équipe. GCP/DBT Livrables : ● Connecteurs API opérationnels et monitorés. ● Scripts de transformation et de chargement (ETL) documentés. ● Tableaux de bord de suivi des fl ux (alerting et logs de transfert). ● Documentation technique du mapping des objets Salesforce vers BigQuery.
Mission freelance
249595/DATA Q Ingenieur - Snowflake , Dataiku , 'ELT ou ETL, Python et SQL
WorldWide People
Publiée le
Snowflake
6 mois
Saint-Denis, Île-de-France
DATA Q Ingenieur - Snowflake Confirmed, Maitrise de Dataiku Confirmed, Familier avec le concept d'ELT ou ETL Expert, Modélisation de données Confirmed, Expertise SQL, Python Expert, Connaissance technique de l'environnement Data (architecture medaillon, principe des data mesh) Confirmed , Votre rôle axé Analytics Engineer sera de : - Transformer, modéliser et documenter les données brutes pour les rendre exploitables - Développer des modèles et produits de données axés conformité pour alimenter la base graphe en partant des données brutes des applications - Maintenir en condition opérationnel nos flux d'ingestion vers la base de données graphes - Améliorer des processus de traitement des données pour gagner en rapidité et en efficacité. - Créer et mettre à jour de la documentation pour aider à l’utilisation des produits de données. - Automatiser des tests de contrôle et surveillance de la qualité pour garantir l’intégrité des données traitées. - Produire des analyses à destination de nos métiers pour le calibrage de scénarios de fraude ou vigilance LCB-FT - Collaborer avec les différentes parties prenantes (notamment les Data Engineers et les métiers de la fraude et LCB-FT) pour enrichir les données de la base de données graphes en fonction de leur besoin - Collaborer avec l'équipe Data Plaform en mettre en production les différents produits de données"
Mission freelance
Architecte Infrastructure
Gentis Recruitment SAS
Publiée le
Data Center
microsoft
6 mois
Luxembourg
Expérience requise 8 à 10 ans d’expérience dans la conception, l’architecture et la gestion d’infrastructures informatiques complexes. Mission principale L’Architecte Infrastructure IT est responsable de la conception, de l’évolution et de la sécurisation de l’architecture des infrastructures informatiques . Il intervient dans des projets stratégiques tels que la migration vers Microsoft 365 (Exchange Online, Teams, OneDrive, SharePoint) et l’ externalisation de l’infrastructure vers un Data Center . Il définit les standards techniques, évalue les risques et garantit la performance, la sécurité et la disponibilité des systèmes. Responsabilités principalesConception et architecture des infrastructures Définir l’architecture des systèmes et infrastructures informatiques. Concevoir des solutions scalables, sécurisées et résilientes . Définir les standards techniques et les bonnes pratiques d’architecture. Participer à la stratégie de transformation digitale de l’organisation. Migration vers Microsoft 365 Concevoir l’architecture de migration Exchange On-Premise vers Exchange Online . Définir l’intégration des services : Microsoft Teams OneDrive SharePoint Online Mettre en place l’architecture d’authentification et de gestion des identités. Assurer la gouvernance et la sécurité des données dans l’environnement Microsoft 365. Externalisation vers un Data Center Définir l’architecture cible pour l’ externalisation de la salle IT . Sélectionner les solutions d’hébergement adaptées. Concevoir l’architecture réseau et les mécanismes de sécurité. Garantir la haute disponibilité et la continuité des services. Virtualisation et infrastructures Concevoir les architectures de virtualisation VMware / Hyper-V . Définir les stratégies de sauvegarde, réplication et reprise d’activité (PRA/PCA) . Optimiser les performances et la capacité des infrastructures. Analyse des risques et gouvernance Évaluer les risques techniques et opérationnels . Définir les politiques de sécurité et de conformité. Garantir l’alignement des infrastructures avec les exigences organisationnelles. Documentation et accompagnement Produire la documentation d’architecture et les schémas techniques . Accompagner les équipes techniques dans l’implémentation des solutions. Assurer le transfert de connaissances et le respect des standards. Compétences techniques Architecture infrastructures IT Microsoft 365 (Exchange Online, Teams, SharePoint, OneDrive) Windows Server et Linux Active Directory, GPO, DNS Virtualisation VMware / Hyper-V Gestion et conception de Data Centers Solutions de backup et disaster recovery Windows 10 Microsoft Office et Visio Compétences linguistiques Français : courant (oral et écrit) Anglais : professionnel (oral et écrit) Aptitudes et qualités personnelles Excellentes capacités d’analyse et de conception Communication et vulgarisation technique Capacité à travailler dans des environnements complexes Sens de l’organisation et rigueur Esprit d’équipe Capacité à prioriser les tâches dans un environnement dynamique Respect des procédures organisationnelles et techniques Respect du secret professionnel
Offre d'emploi
Security Data Engineer - Structuration Logs Cybersecurite
PSSWRD
Publiée le
Cybersécurité
Data Lake
Logstash
1 an
40k-45k €
500-700 €
Issy-les-Moulineaux, Île-de-France
Au sein de la direction cybersécurité d'un grand groupe international du secteur hôtelier, vous interviendrez en tant que Security Data Engineer pour structurer et optimiser l'ensemble de l'écosystème de logs de sécurité. Aujourd'hui, les logs proviennent de multiples sources et outils avec des formats hétérogènes, rendant leur corrélation et leur exploitation difficile. Votre mission sera d'inventorier l'ensemble des sources de logs, de définir une nomenclature unifiée et des pipelines de normalisation, d'organiser le stockage en distinguant le temps réel (SIEM Splunk) du stockage économique pour la conformité, et de proposer une architecture data cible intégrée a la démarche data globale de l'entreprise. Vous serez la personne référente sur la partie data au sein de l'équipe cyber, avec une forte autonomie et un rôle de force de proposition. Vos missions principales : ● Cartographier l'écosystème existant (outils, sources, cas d'usage) et proposer une architecture cible avec roadmap ● Créer un référentiel complet des sources de logs (volume, format, fréquence, qualité, valeur cyber) ● Définir et implémenter une normalisation unifiée des logs (Common Information Model) et les pipelines de transformation ● Optimiser la collecte : réduire le bruit, filtrer, enrichir (CTI, Threat Intelligence) et améliorer la qualité des données ● Collaborer avec les équipes SOC (temps réel), GRC (conformité/reporting) et les équipes data métier de l'entreprise ● Assurer le transfert de compétences et la formation des équipes a l'exploitation des logs et des outils
Mission freelance
Développeur Java orienté Data H/F
ODHCOM - FREELANCEREPUBLIK
Publiée le
Java
Python
SQL
6 mois
Neuilly-sur-Seine, Île-de-France
Descriptif de mission – Développeur Fullstack orienté Data Nous recherchons un développeur fullstack ayant une forte sensibilité à la data, pour intervenir sur une application interne stratégique dédiée à la gestion de données complexes et volumineuses. L’environnement technique s’appuie sur : des interfaces de consultation de données, un back-end en Java, une base de données SQL avec un modèle riche et structuré, des traitements batch automatisés (Java / SQL). Dans ce contexte, la qualité, la fiabilité et la structuration des données sont au cœur des enjeux. Vos responsabilités En vous appropriant les enjeux fonctionnels et la base de code existante, vous interviendrez sur l’ensemble du cycle de vie de l’application : Analyse & compréhension des données Manipuler et analyser des modèles de données complexes Garantir la cohérence, la qualité et l’intégrité des données Identifier des axes d’optimisation du data model Conception & développement Implémenter des fonctionnalités en lien avec les besoins métier Participer à la conception technique et à l’évolution de l’architecture Réaliser des prototypes et contribuer aux choix techniques Data & performance Écrire et optimiser des requêtes SQL complexes Participer à l’optimisation des traitements batch et des performances globales Qualité & tests Mettre en place et exécuter des tests (unitaires, intégration, end-to-end) Identifier, analyser et corriger les anomalies Maintenance & amélioration continue Assurer la maintenance corrective et évolutive Participer à la rétro-ingénierie du code existant Contribuer à la documentation et aux bonnes pratiques (versioning, code review…)
Mission freelance
Data Engineer (H/F)
Trust IT
Publiée le
Bash
Cloudera
DevOps
1 an
450-510 €
Charenton-le-Pont, Île-de-France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un Data Engineer (H/F) Contexte : Des tâches quotidiennes liées au maintien de la production en condition opérationnelle. Vos interlocuteurs privilégiés seront les équipes de production applicative, les équipes infrastructures, les plateformes internationales, mais également les équipes métiers pour lesquelles vous apporterez votre support et votre expertise technique. Missions : Conception et mise en œuvre de l'ingestion et du stockage de données : Identifier et formaliser les besoins des métiers en matière de collecte et de stockage de données. Développer des solutions d'acquisition de données via API. Concevoir et implémenter des architectures de stockage de données robustes (Ex: Ozone, Hadoop, Druid, Clickhouse…). Valider la qualité des développements par des tests unitaires et d'intégration. Automatiser les traitements de données via la mise en place et la maintenance de batch. Valorisation et sécurisation des données : Industrialiser les processus de nettoyage et de transformation des données. Gérer et documenter des bases de données hétérogènes, en intégrant diverses sources de données. Veiller à la conformité RGPD dans la gestion du cycle de vie des données. Superviser l'exploitation et assurer la maintenance corrective et évolutive des systèmes de données. Intégration et suivi des modèles prédictifs : Industrialiser le déploiement de modèles statistiques et de machine learning. Mettre en place des dispositifs de validation et de monitoring des modèles. Assurer le suivi opérationnel et la maintenance des modèles intégrés aux applications. Contribution au pilotage projet : Définir les spécifications techniques précises en appui de l'analyse des besoins. Environnement technique : Les composants basés sur le logiciel de l’éditeur Cloudera CDP 7.1 :Hbase, Hive, Kafka, Solr, Knox, Spark,Ranger, Zookeeper, Kerberos LDAP... •Être force de proposition sur les évolutions techniques du périmètre Data avec la nouvelle offre containérisée : Cloudera Data Services (Infra Openshift K8s) •Contribuer à l'élaboration et à l'exécution des stratégies de migration des clusters Hadoop Cloudera. •Aisance avec l’écosystème Apache (Outils OpenSource),Build (Java, Maven, Gradle...), Automatisation avec Ansible •Connaissance Trino/Starburst, AirFlow, Flink •Participer à la résolution de problèmes complexes sur les plateformes Data (Capacité d’analysedes incidents applicatif de type Hive, Yarn, Spark...) •Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge. •Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation .Couverture horaire de l’équipe : 8h/19h
Mission freelance
Consultant Corporate Finance (Lyon)
SQLI
Publiée le
Data management
6 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients dans le secteur d'éléctroménager, je suis à la recherche d'un consultante corporate finance. Le rôle du corpo Finance : • Gestion de projet avec la capacité de coordonner efficacement diverses parties prenantes en tant que Business & Développeurs. • Collecte des exigences du côté commercial. • Rédaction de spécifications fonctionnelles, garantissant une documentation claire et précise. • Aider les développeurs avec les tests initiaux. • Soutenir les utilisateurs avec des tests d’acceptation, des formations, etc. Le candidat doit avoir des connaissances commerciales significatives dans les sujets de vente. La familiarité avec SAP BW ou SQL, permettant une interaction avec les outils d’analyse de données et de reporting, serait un avantage.
Offre d'emploi
Data Analyst Power BI (F/H)
CELAD
Publiée le
Big Data
Confluence
Data analysis
12 mois
36k-45k €
400-480 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Analyst Power BI pour intervenir chez un de nos clients du secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Accompagner l’équipe DATA dans la gestion du CHANGE (projets et évolutions) et du RUN (MCO) des applications BI - Contribuer à la mise en œuvre de la feuille de route DATA de la DSI en apportant votre expertise technique - Réaliser des extractions de données issues du système décisionnel et des différentes sources métiers - Concevoir et maintenir des tableaux de bord et reportings BI pour les équipes métier - Travailler en étroite collaboration avec la squad Data et les différents interlocuteurs techniques et fonctionnels - Participer à l’amélioration continue des solutions BI et à l’optimisation des processus d’analyse de données - Assurer la fiabilité et la cohérence des données utilisées dans les outils décisionnels
Offre d'emploi
Ingénieur d'Affaires Data & IA Secteur EnergieH/F
JEMS
Publiée le
45k-60k €
Levallois-Perret, Île-de-France
En tant qu' Ingénieur d'Affaires Data & IA secteur Energie H/F vous aurez la charge de : • Créer et développer de nouvelles relations d'affaires avec des clients potentiels et des partenaires stratégiques de l'Energie • Identifier et explorer de nouvelles opportunités de marché pour nos produits et services • Travailler en étroite collaboration avec nos équipes internes pour élaborer des solutions sur mesure pour nos clients du secteur de l'Energie • Prévoir les tendances du marché d'Energie et anticiper les besoins des clients pour façonner notre stratégie de croissance • Représenter JEMS lors d'événements, de conférences et de réunions pour élargir notre réseau et renforcer notre présence sur le marché • Garder un œil sur la concurrence et élaborer des stratégies pour rester en tête Avantages à travailler chez JEMS : • Un accompagnement personnalisé pour développer votre carrière • L'opportunité de travailler dans un environnement dynamique et stimulant • Une culture d'entreprise qui encourage la créativité, l'innovation et la croissance personnelle • Un package de rémunération compétitif avec des avantages exceptionnels • Un soutien continu pour développer vos compétences et avancer dans votre carrière • Des séminaires d'intégration inoubliables Pour Postuler Si vous êtes prêt(e) à relever le défi et à devenir un acteur clé de notre équipe en tant qu'Ingénieur d'Affaires chez JEMS, envoyez nous votre CV accompagné d'une lettre de motivation convaincante qui montre pourquoi vous êtes la personne idéale pour ce poste. Montrez nous votre passion, votre détermination et votre vision pour l'avenir. Diversité Le Groupe JEMS porte fièrement sa valeur "Diversité" en se mobilisant pour l'inclusion et l'égalité des chances et en luttant contre toutes formes de discrimination. Tous nos postes sont ouverts aux personnes en situation de handicap. Chez JEMS, nous croyons que les meilleurs candidats sont ceux qui partagent notre passion pour l'innovation et notre engagement envers l'excellence. Rejoignez notre équipe et soyez prêt à changer le jeu ! Référence de l'offre : vu8w7m88rl
Mission freelance
Architecte Data Plateforme AWS / Snowflake (H/F)
ALLEGIS GROUP
Publiée le
Agent IA
AWS Cloud
DBT
1 an
Paris, France
Teksystems recherche pour l’un de ses clients grands comptes un Architecte Data AWS / Snowflake (H/F) pour construire, structurer et sécuriser la plateforme data du client basée sur Snowflake et AWS , et accompagner les équipes pour garantir une plateforme performante, scalable et prête à accueillir des fonctionnalités IA . Ce rôle est structurant, durable , et s’inscrit au cœur de la transformation data. Vos missions : 1. Définir et faire évoluer l’architecture de la plateforme Architecture cible Snowflake/AWS Patterns d’ingestion (batch, CDC, near real-time) Modélisation (Data Vault, modèles analytiques) Exposition (BI, APIs, data apps) 2. Industrialiser le delivery data Standards CI/CD (dbt, ingestion, artefacts ML) Automatisation des déploiements Intégration Git / pipelines / qualité Réduction du time-to-market 3. Mettre en place une observabilité complète Suivi fraîcheur, volumétrie, succès/échec des pipelines Tests & qualité de données Performance Snowflake (temps, coûts, consommation) Dashboards RUN, alertes, SLAs 4. Sécuriser la plateforme RBAC, rôles Snowflake, data masking, row-level security RGPD, auditabilité, traçabilité Catalogage, lineage, ownership 5. Accompagner les équipes Support aux devs, pair programming, arbitrages techniques Challenge des choix existants Coordination avec infra / cloud / sécurité 6. Préparer et soutenir le RUN Normes de reprise, diagnostic, alerting Réduction de la dette technique Support N2/N3 Conception orientée exploitabilité
Mission freelance
Data Scientist / GenAI /LLM
Pickmeup
Publiée le
Machine Learning
Python
Pytorch
2 ans
650-750 €
France
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
999 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois