L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 287 résultats.
Mission freelance
Expert Réseau / WIFI
APIXIT
Publiée le
Extreme Networks
6 mois
500-550 €
Plaisir, Île-de-France
L'un de nos clients basé à Plalsir recherche pour renforcer ses équipes un(e) EXpert'e) Réseau Wifi Vous serez intégré(e) à l’équipe Infrastructure IT Corporate. Les missions sous votre responsabilité seront : Exploitation de l’infrastructure Wi-Fi Exploiter la solution sans fil conformément aux politiques IT Superviser et ajuster les performances de l’infrastructure Gestion des incidents Prendre en compte et catégoriser les incidents signalés Suivre les incidents et les escalader si nécessaire Support et accompagnement Fournir un support aux équipes locales Conseiller les utilisateurs et les managers sur les nouveaux produits déployés et garantir leur satisfaction Former les équipes IT et les utilisateurs clés à ces produits Rédiger et mettre à jour la documentation IT Reporting Reporter aux responsables Infrastructure Environnement technique Équipements Extreme Networks ExtremeCloud IQ Ekahau Mission à Plaisir avec 1 jour de TT le mercredi
Offre d'emploi
Analyste Cybersécurité (H/F)
1G-LINK CONSULTING
Publiée le
Analyse forensic
Cybersécurité
Incident Management
6 mois
Paris, France
Contexte Afin de renforcer les équipes de l'un de nos clients, vous intervenez en première ligne sur la détection, l’analyse et la réponse aux incidents de cybersécurité dans des environnements IT et OT. Missions Détecter et qualifier les incidents (malware, phishing, compromission, exfiltration…) Mener les investigations et collecter les artefacts (logs, EDR, SIEM…) Analyser les modes opératoires des attaquants Mettre en œuvre les actions de containment et d’éradication Produire les rapports d’analyse DFIR Réaliser des activités de threat hunting (SIEM, outils externes…) Contribuer à la veille sur la menace (IOCs, TTPs, tendances) Participer à l’amélioration des règles de détection Contribuer à la cartographie de la surface d’attaque Investiguer les systèmes compromis Identifier l’origine et l’étendue des attaques Proposer des recommandations de remédiation et de durcissement Mettre à jour la documentation (procédures, plans de réponse, standards) Contribuer à l’évolution des outils et de la stack CSIRT Participer à l’optimisation des processus de détection et réponse Rapports d’investigation DFIR Indicateurs de compromission (IOCs) Documentation opérationnelle (SOP, IRP, IRG) Recommandations de remédiation et d’amélioration Expertise DFIR (Digital Forensics & Incident Response) Expertise CTI (Cyber Threat Intelligence) Outils de sécurité : SIEM, EDR, analyse de logs Investigation systèmes & réseaux
Offre d'emploi
AI / Data Engineer – IA Générative & Databricks (Python / ML / AWS) – H/F
SMARTPOINT
Publiée le
IA Générative
Large Language Model (LLM)
Pandas
1 an
50k-60k €
400-550 €
Île-de-France, France
Dans le cadre du développement de projets data innovants, nous recherchons un AI / Data Engineer spécialisé en Intelligence Artificielle Générative (H/F) . Vous interviendrez sur la conception et la mise en œuvre de solutions data avancées , avec un focus sur la plateforme Databricks et sur des cas d’usage en IA Générative (LLM, RAG, fine-tuning) . Votre rôle consistera à accompagner les équipes dans le cadrage, le développement et la mise en production de modèles d’intelligence artificielle , tout en contribuant à l’industrialisation des solutions et à l’évolution des plateformes data. Conseil et cadrage des cas d’usage IA Accompagner les équipes dans l’identification et le cadrage de cas d’usage data et IA Générative Conseiller sur les choix d’architecture, de modèles et de stratégies RAG ou fine-tuning Participer à la définition de solutions innovantes sur la plateforme Databricks Conception et développement de modèles IA Développer des modèles de Machine Learning et Deep Learning Concevoir des solutions basées sur LLM et architectures Transformers Implémenter des cas d’usage d’ IA Générative (RAG, fine-tuning, prompt engineering) Collecte et préparation des données Collecter, nettoyer et transformer les données nécessaires à l’entraînement des modèles Réaliser des analyses exploratoires et préparer les datasets pour l’entraînement Industrialisation et MLOps Mettre en production les modèles d’intelligence artificielle Mettre en place des processus de monitoring et de maintenance des modèles Contribuer à l’industrialisation des pipelines data et des modèles IA
Mission freelance
Ingénieur Prod Linux — Web Platform
Ipanema Technology
Publiée le
Ansible
Infrastructure
Kubernetes
1 an
370-450 €
Nancy, Grand Est
au sein d'une équipe infrastructure d'une plateforme web à fort trafic (plusieurs millions d'utilisateurs actifs), vous intégrez le pôle en charge de l'hébergement, de la résilience et de la sécurité des services exposés sur internet. L'environnement est 100% open source, 100% Infrastructure as Code. Zéro action manuelle en production — tout passe par Git. La philosophie de l'équipe : "Build it, Run it." Vous concevez, vous industrialisez, vous exploitez. MISSIONS & TÂCHES DÉTAILLÉES Hébergement & Scalabilité Héberger et scaler les services web fournis par les équipes de développement Concevoir et mettre en œuvre des architectures hautement disponibles sur environnements multi-datacenters Assurer le déploiement sans interruption de service (zero downtime) en production Administrer les clusters Kubernetes : scheduling, Ingress Controllers, exposition de services, montée en charge Gérer la résilience inter-datacenters Sécurité & Exposition Internet Gérer la sécurité de l'exposition internet : anti-DDoS, WAF, gestion des flux Administrer l'ensemble du cycle de vie des certificats SSL/TLS Gérer les politiques réseau (Network Policies Kubernetes, ouverture de flux via Terraform) Assurer la sécurité opérationnelle de l'infrastructure exposée Plateforme & Services Communs Administrer et faire évoluer la stack de supervision à l'échelle (Prometheus fédéré, Grafana, ELK/OpenSearch) Maintenir et faire évoluer la registry d'artefacts et d'images Docker (JFrog Artifactory) Fournir et maintenir les services d'infrastructure communs aux équipes de développement (métriques, logs, registry, authentification) Administrer les mécanismes d'authentification (Keycloak, SSO) Automatisation & IaC Gérer l'ensemble des configurations via Puppet Contribuer au provisioning infrastructure via Terraform et Ansible Développer des scripts d'automatisation (Bash, Python) Garantir que toute action en production est tracée, versionnée et reproductible via Git Support & Obsolescence Assurer le support de production niveau 3 : troubleshooting système, réseau, performance Traiter les chantiers d'obsolescence logicielle sans interruption de service Réaliser les actions de patching sur les systèmes critiques ENVIRONNEMENT TECHNIQUE Technologie Niveau attendu Linux (Debian/Ubuntu) — bas niveau système Expert Puppet Expert Terraform Avancé Ansible Avancé Git Avancé Kubernetes Avancé Docker Avancé HAProxy / Traefik / Nginx Avancé DNS — BIND, résolution, types d'enregistrements, TTL Avancé SSL/TLS — PKI, certificats, chiffrement, handshake Avancé Prometheus / Grafana — à l'échelle Avancé ELK / OpenSearch Confirmé JFrog Artifactory Confirmé Keycloak / SSO Confirmé Scripting Bash / Python Confirmé Consul / Netbox Notions MANDATORY — CRITÈRES NON NÉGOCIABLES Linux bas niveau : troubleshooting système, réseau, performance — comprendre ce qui se passe sous le capot, pas seulement exécuter des commandes Protocoles réseau : DNS, TCP/IP, TLS — compréhension mécanique et capacité à expliquer le fonctionnement en profondeur Puppet opérationnel en production Culture IaC incarnée : Git comme seul vecteur d'action, zéro intervention manuelle Veille technique active : lecture, POCs personnels, curiosité démontrée — critère éliminatoire absolu Mindset production : conscience de l'impact réel de chaque action, capacité à travailler sous pression sans filet Appétence web : culture open source incarnée, intérêt sincère pour les problématiques d'hébergement web à fort trafic — profils issus d'environnements très outillés et process-heavy s'abstenir Ancrage géographique : résidence ou projet d'installation solide sur Nancy / Grand Est
Offre d'emploi
Administrateur système Linux H/F
OBJECTWARE
Publiée le
Administration linux
Apache
Nantes, Pays de la Loire
Nous recherchons un administrateur système Linux H/F pour une mission à Nantes. Missions : Assurer le maintien en condition opérationnelle des infrastructures Linux Diagnostiquer, analyser et résoudre les incidents de production de niveau 2/3 Réaliser des scripts d’automatisation et d’optimisation Administrer les serveurs web Apache Participer à la documentation technique et au transfert de connaissances Proposer des améliorations continues tout en respectant les contraintes d’un environnement en mode run
Mission freelance
Architecte Securite Cloud et Donnees (H/F)
HOXTON PARTNERS
Publiée le
Azure
6 mois
Issy-les-Moulineaux, Île-de-France
Dans le cadre d'une transformation d'envergure internationale, vous intégrez une équipe dédiée à la sécurité des systèmes d'information. Vous apportez votre expertise sur la sécurisation des environnements cloud et des plateformes de données, en contribuant activement à la définition et au déploiement des standards de sécurité du groupe. Missions • Apporter une expertise technique en tant que référent sur la sécurité des données : définir des architectures cloud et on-premise sécurisées, évolutives et résilientes. • Réaliser des évaluations de sécurité sur les architectures et services cloud, et proposer des exigences conformes au cadre de sécurité du groupe. • Définir les prérequis techniques et fonctionnels de sécurité dans les projets cloud structurants, en cohérence avec les stratégies IT et de sécurité des systèmes d'information. • Contribuer à la rédaction et au déploiement des politiques, directives et standards de sécurité du groupe. • Piloter des projets de sécurité cloud : identification des besoins, sélection de solutions, mise en oeuvre et accompagnement des entités dans le déploiement. • Évaluer les risques de sécurité et définir les mesures appropriées pour protéger les données et les systèmes dans les projets métiers, avant mise en production.
Offre d'emploi
Data Engineer & API Automation (H/F)
Link Consulting
Publiée le
50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Offre d'emploi
Ingénieur Réseaux confirmé H/F
DCS EASYWARE
Publiée le
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du renforcement de ses équipes, notre client recherche un profil Ingénieur(e) Réseaux Confirmé(e). Vous intégrerez une DSI centralisée gérant un large périmètre applicatif et des infrastructures nationales, avec pour objectif de garantir la performance, la sécurité et l’évolution des réseaux. Vos responsabilités Maintien en conditions opérationnelles Prendre en charge les incidents et demandes de niveau 2 Assurer le support aux équipes de niveau 1 Documenter les incidents et procédures Qualifier et escalader vers le niveau 3 si nécessaire Projets réseaux Participer à la rénovation des infrastructures LAN (datacenters et sites utilisateurs) Contribuer aux migrations de pare-feux et aux évolutions de sécurité Intervenir sur le remplacement de solutions NAC Déployer et faire évoluer les architectures réseaux selon les besoins métiers Accompagner l’intégration de nouveaux sites et les opérations de déménagement Livrables attendus Résolution et documentation des incidents et demandes Mise à jour de la documentation réseaux Réalisation de schémas d’architecture Rédaction de dossiers d’architecture technique Implémentation des solutions définies dans les projets
Mission freelance
DATA Analyst SAP BO
ARGANA CONSULTING CORP LLP
Publiée le
Business Object
IDT
Microsoft Power BI
12 mois
400-450 €
Île-de-France, France
Mission Le consultant BO interviendra sur : La modélisation et le développement d’univers SAP BO. La création et la maintenance de rapports Web Intelligence 4.3. La génération de rapports complexes multi-sources et multi-pages. Le support aux utilisateurs et aux métiers pour la formation et la montée en compétence sur BO. Livrables principaux : Univers BO Rapports BO Tableaux de bord et Data visualisations métiers Présentations d’indicateurs de performance Durée de mise en opération rapide : Capable d’être opérationnel sous 2 semaines. Compétences techniques requises SAP Business Objects 4.3 (Designer, IDT/UDT) – Confirmé – Impératif Modélisation d’univers – Confirmé – Impératif SQL – Confirmé – Souhaitable Web Intelligence 4.3 – Confirmé Connaissance CMC et Power BI – Plus Profil recherché Formation : Bac +5 Expérience : Minimum 5 ans sur SAP BO et modélisation d’univers Soft skills : Capacité à s’intégrer rapidement à une équipe BI et à devenir opérationnel rapidement. Positionnement : Auprès des Métiers, de la DSI ou dans un pôle Data transverse. Responsabilités : Identifier les données pertinentes à partir des exigences métiers Définir la logique de génération d’indicateurs Concevoir les tableaux de bord nécessaires à la restitution Assurer la production d’indicateurs et supports de décision
Offre d'emploi
Ingénieur Réseau ACI / NSX-T (H/F)
STORM GROUP
Publiée le
Cisco ACI
Python
Terraform
3 ans
60k-65k €
580-650 €
Île-de-France, France
Contexte : Dans le cadre du renforcement de notre équipe infrastructure, nous recherchons un ingénieur réseau expérimenté spécialisé dans les environnements data center modernes, notamment Cisco ACI et VMware NSX-T, avec une forte appétence pour l’automatisation. Missions principales : Concevoir, déployer et maintenir des infrastructures réseau basées sur Cisco ACI et VMware NSX-T Assurer l’intégration des solutions réseau dans des environnements virtualisés et cloud Automatiser les tâches d’exploitation et de déploiement via Python et Terraform Participer à l’industrialisation des déploiements (Infrastructure as Code) Gérer les incidents de niveau 2/3 et assurer le support technique avancé Optimiser les performances, la sécurité et la disponibilité des infrastructures réseau Rédiger la documentation technique et les procédures d’exploitation Collaborer avec les équipes systèmes, sécurité et DevOps Participer aux projets de transformation réseau (SDN, micro segmentation, etc.)
Mission freelance
Ingénieur Réseaux et Télécoms
CAT-AMANIA
Publiée le
Aruba
Cisco
12 mois
300-380 €
Paris, France
Vos missions consisteront à contribuer : Assurer le bon fonctionnement des équipements (ITIL) Faire respecter les procédures d'accès aux Locaux Techniques Informatiques dans les Agences et Etablissements. Maintenir à jour (temps réel) le référentiel câblage sur les Agences et Etablissements Accompagner sur site les intervenants IT lors des déploiements ou en cas d'incidents Communiquer, rendre compte client/fournisseur Assister les chef de projets tertiaire et Datacenters Capable de relever les défis des déploiements physiques Déployer physiquement des équipements dans les Locaux Techniques Informatiques Concevoir et déployer des solutions techniques de pointe. Collaborer étroitement avec les équipes logistiques et informatiques pour cerner les besoins précis. Recommander et valider des solutions techniques innovantes. Optimiser les infrastructures pour une performance maximale. Apporter votre expertise technique dans l'estimation des projets. Rédiger des cahiers des charges détaillés et des documentations claires. Suivre et réaliser des déploiements avec précision. Assister les équipes lors des déploiements sur site. Rédiger des dossiers d'exploitation complets et mettre en supervision les équipements.
Offre d'emploi
Ingénieur Systèmes & Intégration (Linux / Cloud / DevOps) H / F
CONSORT GROUP
Publiée le
93100, Montreuil, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. C’est votre mission Vous êtes passionné·e par les environnements infrastructure, cloud et haute disponibilité ? Ce poste est fait pour vous. EVous êtes passionné·e par les environnements infrastructure, cloud et haute disponibilité ? Ce poste est fait pour vous. En tant qu’ Ingénieur Système DevOps GCP , vous êtes responsable du pilotage des projets d’infrastructure cloud et de la fiabilité de notre écosystème IT : Côté Build : Concevoir, déployer et faire évoluer des infrastructures cloud sur Google Cloud Platform Implémenter des architectures scalables, résilientes et sécurisées (GKE, Compute Engine, Cloud SQL…) Réaliser les migrations vers GCP (lift & shift, refonte vers des architectures cloud native) Développer et maintenir des infrastructures via Infrastructure as Code (Terraform) Mettre en place et optimiser des pipelines CI/CD (GitLab CI, Cloud Build…) Automatiser les déploiements et la gestion des environnements (dev, staging, production) Contribuer aux choix techniques et aux bonnes pratiques DevOps / Cloud Assurer la standardisation et la reproductibilité des environnements Participer à l’amélioration continue des processus de build et de déploiement Côté run : Assurer le maintien en conditions opérationnelles (MCO) des infrastructures sur Google Cloud Platform Exploiter, administrer et optimiser les services GCP (GKE, Compute Engine, Cloud SQL…) Garantir la disponibilité, la résilience et la performance des plateformes Mettre en place et maintenir les outils de supervision et d’observabilité (Cloud Monitoring, Prometheus, Grafana) Surveiller les systèmes, analyser les alertes et intervenir en cas d’incident Diagnostiquer et résoudre les incidents de production (niveau 2/3) Automatiser les tâches d’exploitation et les procédures de remédiation Mettre en œuvre et tester les stratégies de continuité d’activité (PRA/PCA) Optimiser les coûts et les performances des ressources cloud Participer aux post-mortems et à l’amélioration continue de la fiabilité Contribuer à une approche inspirée du Site Reliability Engineering (SLO, SLA, error budgets) C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants, avec une forte orientation cloud et idéalement sur GCP. Vous aimez piloter des projets complexes, automatiser les infrastructures et garantir la fiabilité des systèmes à grande échelle. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. Vous disposez également d’un anglais courant , vous permettant d’évoluer dans un contexte international. C’est votre expertise : Environnements Linux / systèmes distribués Cloud (AWS, Azure ou GCP) et migrations associées Méthodologies Agile / gestion de projet IT Outils d’infrastructure et d’automatisation (Terraform, Ansible…) Gestion de la haute disponibilité, PRA/PCA C’est votre manière de faire équipe : Leadership et capacité de coordination transverse Esprit d’analyse et sens des priorités Communication claire avec équipes techniques et métiers Proactivité et force de proposition C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Montreuil Contrat : CDI Télétravail : Hybride Salaire : De 50 K€ à 60 K€ (selon expérience) brut annuel Famille métier : Infrastructure / Cloud / DevOps Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
tech lead java angular
Freelance.com
Publiée le
Angular
Apache Kafka
Apache Maven
1 an
510-590 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Agile organisée en train SAFe, nous recherchons un Tech Lead Java JEE confirmé pour intervenir sur des applications critiques liées à la gestion et à la facturation. Intégré à une équipe dynamique pilotée par un Product Owner et un Scrum Master, vous jouerez un rôle central dans la conception, la réalisation et l’amélioration continue des solutions. Vous serez le référent technique de l’équipe, garant de la qualité, de la sécurité et de la cohérence des développements. À ce titre, vous : Pilotez les orientations techniques et veillez au respect des standards d’architecture Assurez la mise en œuvre des exigences non fonctionnelles (performance, sécurité, résilience) Contribuez activement aux développements (correctifs, évolutions, enablers techniques) Supervisez les pipelines CI/CD et l’automatisation des tests Participez aux rituels Agile et aux échanges inter-équipes Portez les pratiques DevSecOps et améliorez en continu les processus Garantissez la qualité des livrables et le suivi en production Intervenez sur les problématiques de sécurité et de vulnérabilités Accompagnez l’équipe dans la montée en compétences techniques
Offre d'emploi
Data Engineer
VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop
1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Offre d'emploi
Data Scientist Generative IA (4jrs TT) sur 92
EterniTech
Publiée le
Data science
IA Générative
Pytorch
3 mois
Hauts-de-Seine, France
Je recherche pour un de mes clients un Data Scientist Generative IA avec 4 jours TT sur 92 VOTRE MISSION** * Concevoir et industrialiser des solutions d’IA Générative (LLMs, Agents, RAG) répondant aux besoins des AI Catalysts, priorisés par le PO. * Intégrer les composants GenAI à l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de coûts. * Définir et implémenter les architectures techniques : choix de modèles, orchestration d’agents, conception RAG, gestion des sessions. * Développer et maintenir le code (principalement Python) et les briques réutilisables (librairies de prompts, agents). * Industrialiser le déploiement : conteneurisation (Docker), Kubernetes, CI/CD, Infrastructure as Code (Terraform), et monitoring. * Mettre en œuvre des pratiques MLOps : suivi des expériences, versioning de modèles, tests de régression, validations en pré-prod. * Assurer la qualité et l’observabilité : métriques de performance, tests adversariaux, suivi des dégradations en production. * Collaborer avec le PO, le Software Engineer, les AI Catalysts et la DSI pour garantir la sécurité et l’adoption des solutions. * Contribuer à la documentation, aux templates et à la formation des équipes internes. *VOTRE PROFIL * Bac +3 à Bac +5 en informatique, data science ou équivalent. * 3 à 5 ans d’expérience en développement d’applications utilisant l’IA, avec un accent sur l’IA Générative (Agents, RAG, LLMs). * Maîtrise de Python et des bibliothèques ML/IA (PyTorch, Transformers). * Connaissances des frameworks GenAI : LangChain, LangGraph, LangFuse, et des moteurs de recherche sémantique (Qdrant, Milvus). * Compétences en architecture cloud Azure (AI Foundry, AKS, WebApp) et en conteneurisation/orchestration (Docker, Kubernetes). * Familiarité avec CI/CD et Infrastructure as Code (Terraform). * Sensibilité aux enjeux de cybersécurité et de conformité. * Rigueur dans l’ingénierie logicielle : tests, documentation et automatisation des pipelines. * Capacité à travailler en équipe et à vulgariser les concepts techniques. * Anglais professionnel (lu/écrit) ; français courant indispensable. Définition du profil DATA SCIENTIST: - En charge du développement d'algorithmes (Machine Learning et Intelligence Artificielle) pour créer de la valeur métier à partir de données (structurées, non structurées, vidéos, images, etc.). - Doit comprendre les demandes de l'entreprise et les challenger pour fournir la meilleure réponse possible. - Apporte un support à la décision sur d'éventuelles innovations, l'amélioration des performances et décisions relatives au service client. - Industrialise les projets de Data Science avec les Data Engineers. - Maintient et documente les algorithmes industrialisés (selon les rôles et les responsabilités définis par le projet).
Offre d'emploi
Data Designer
CAT-AMANIA
Publiée le
Confluence
Île-de-France, France
Le Data Designer : • sera rattaché au Shared service Data Office • interviendra dans les trains SAFe, pour représenter la composante Data dans le rôle System Architect du train ; Il travaillera avec deux autres architectes (technique & fonctionnel) pour accompagner les équipes agiles. • pourra intervenir sur des sujets transverses, dans le Shared service Data Office Requis • Connaissance des principes de modélisation (UML, Merise, etc) • Connaissance de la gouvernance des données • Connaissance architecture Datacentric • Connaissance Event Driven Architecture • Bonne connaissance du monde bancaire • Capacité à mener des interviews, et à coordonner des contributeurs • Capacité à travailler en mode agile Souhaité : • Connaissance de la modélisation des processus
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5287 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois