Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 770 résultats.
CDI

Offre d'emploi
Data Engineer 2 - 5 ans (aws) PARIS

Cogniwave dynamics
Publiée le
Data science

Paris, France
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe et travailler en étroite collaboration avec nos experts Data Science (profil ingénieur ML/Data), spécialisé dans les pipelines IA, le NLP, les LLM, le RAG et AWS Bedrock. Le poste est basé à Paris, avec possibilité de télétravail, au sein d’une équipe dynamique orientée IA générative et analyse intelligente de documents. 💼📍 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes (ETL, SQL / NoSQL). Intégrer, déployer et optimiser des modèles de Machine Learning et LLM (Scikit-learn, Transformers, LangChain). Mettre en œuvre des architectures cloud AWS : S3, Bedrock, EC2, ECR / ECS Fargate. ☁️ Développer des APIs (Flask / FastAPI), des chatbots RAG et des outils de matching CV / offres. Collaborer sur des projets OCR, NLP et de visualisation de données (Power BI). 📊 Animer des formations et interventions publiques sur l’IA (ateliers, webinaires) afin de partager l’expertise et vulgariser les avancées ML/LLM auprès de clients et partenaires. 🎓
Freelance

Mission freelance
Data architecte / Expert Snowflake

Codezys
Publiée le
Apache Airflow
Kubernetes
Python

12 mois
Lille, Hauts-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data
CDI

Offre d'emploi
Développement Back-End Python

CAT-AMANIA
Publiée le
PostgreSQL
Python

40k-45k €
Île-de-France, France
Conception, développement et maintenance des applications back-end robustes en Python, tout en intégrant des fonctionnalités liées à l’IA (Machine Learning, API IA, pipelines de données). Cette mission inclut la mise en production de services performants, sécurisés et évolutifs, en collaboration avec les équipes Data Scientist et IA. - Développement des API et des services back-end en Python - Intégration des modèles IA ou des services d’IA (API, microservices) dans les applications - Conception et maintenance des pipelines de données pour l’entraînement et l’inférence - Assurance de la qualité du code (tests unitaires, intégration continue) - Participation à la mise en place de CI/CD et à l’industrialisation des solutions IA - Collaboration avec les Data Scientists pour transformer les prototypes en solutions scalables - Respect des normes de sécurité et de conformité - Programmation orientée objet et des principes SOLID. - Langages : Python (avancée) - Frameworks Back-End : FastAPI (ou équivalent) - Bases de données : PostgreSQL, MongoDB, ElasticSearch - Outils DevOps : Docker, Git, CI/CD - Cloud : Kubernetes - IA / ML : concepts fondamentaux (classification, NLP, vision), et des frameworks comme TensorFlow ou PyTorch - Pratiques MLOps (monitoring, retraining) - Pratiques de DataEngineer (frameworks PANDAS et POLARS)
CDI

Offre d'emploi
Chargé de projet F/H

COEXYA
Publiée le

40k-45k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE Nous sommes à la recherche d'un Chargé de Projet F/H pour rejoindre notre équipe au sein du pôle Smart Data chez Coexya. Vous rejoindrez une communauté d'environ 25 personnes au sein de ce pôle, répartie entre les sites de Lyon et Rennes. En travaillant au sein de cette équipe pluridisciplinaire, vous contribuerez activement à façonner l'avenir de la gestion intelligente des données dans des contextes en constante évolution. Forte de 15 ans d'engagement, votre future équipe s'est positionnée en tant qu'experte dans la valorisation de l'information non structurée, exploitant des technologies innovantes telles que les moteurs de recherche, le Traitement du Langage Naturel, le Machine Learning et l'IA bénéficiant largement des avancées actuelles des Large Language Models (ex : GPT, Mistral). CE QUE L'ON VOUS PROPOSE - Participer aux phases d'avant-vente : répondre aux appels d'offres, réaliser les chiffrages et contribuer au développement de la relation commerciale. - Comprendre le contexte fonctionnel et technique du projet : saisir les enjeux spécifiques des clients pour proposer des solutions adaptées. - Accompagner l'équipe projet : organiser et fédérer l'équipe pour garantir la cohésion et l'efficacité. - Piloter le déroulement des projets : contrôler l'avancement des équipes, assurer le respect des engagements contractuels (délais, budget, qualité). - Assurer la relation client : participer aux négociations contractuelles et financières, veiller à la satisfaction du client. Des déplacements ponctuels à Paris sont à prévoir (environ 1x par mois).
CDI

Offre d'emploi
IT Operations Manager / Responsable IT (H/F)

SPIE ICS
Publiée le
Fortinet
Infrastructure

50k-70k €
Levallois-Perret, Île-de-France
Nous recherchons pour notre client basé à Levallois (92) un(e) IT Operations Manager expérimenté(e) pour prendre en charge la gestion et la direction des systèmes d’information au sein d’un environnement international et multi-filiales. Rattaché(e) directement au CTO Groupe, vous êtes responsable du pilotage opérationnel, de la cohérence et de la performance du système d’information d’un groupe international présent dans plusieurs pays.Vous contribuez à la définition et à la mise en œuvre de la stratégie SI à travers l’ensemble des filiales internationales. Vos missions principales sont : Infrastructure Réseau & Administration Piloter et optimiser l'infrastructure réseau (Fortinet, Ruckus), gérer l'administration des identités et des accès (Microsoft Entra), assurer la performance, la disponibilité et la sécurité des infrastructures, superviser leur évolution et gérer le parc informatique global. Cloud & Infrastructures Hybrides Piloter la stratégie cloud (AWS, Google Cloud Platform), optimiser les coûts et la performance, accompagner les migrations et intégrations cloud, garantir la résilience et la scalabilité des environnements. Stratégie & Gouvernance IT Participer à la définition de la stratégie SI avec le CTO et les directions métiers, piloter la roadmap IT, gérer les projets d’évolution du SI (ERP, SIRH, CRM, MDM, Work Management System, DataWarehouse, iPaaS), suivre le budget IT global, assurer la supervision opérationnelle du SI. Management & Coordination Encadrer et animer les équipes IT internes et externes, coordonner les projets transverses impliquant plusieurs départements et filiales, intervenir dans la résolution d’incidents majeurs. Sécurité, Conformité et Risques Collaborer avec le RSSI pour garantir la conformité aux normes (ISO 27001, TISAX, RGPD), suivre les audits et plans d’action, promouvoir la culture cybersécurité. Innovation & Transformation Digitale Accompagner la transformation digitale, intégrer de nouvelles solutions (cloud, automatisation, data, IA), soutenir les croissances externes, développer une culture IT orientée performance et innovation. Compétences techniques clés Maîtrise des infrastructures réseau (Fortinet, Ruckus) et virtualisation (VMware). Expérience avérée avec les plateformes cloud (AWS, Google Cloud Platform). Connaissance des outils d’administration des identités (Microsoft Entra). Gestion de systèmes métiers (ERP, CRM, SIRH) et intégration via iPaaS (). Connaissance des normes de sécurité (ISO 27001, TISAX, RGPD). Compétences en gestion de projets IT et pilotage budgétaire
CDI

Offre d'emploi
Data scientist confirmé F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning

Nanterre, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy

Almatek
Publiée le
SQL

6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
CDI

Offre d'emploi
Responsable Data Platform

Recrut Info
Publiée le
Amazon Redshift
AWS Cloud
Data governance

55k-65k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au CTO, vous encadrerez un Data Engineer et prendrez la responsabilité de la plateforme data et des initiatives d’ingénierie data. Dans un contexte cloud-first (AWS) et de structuration de la stratégie data, votre rôle consistera à définir l’architecture cible, organiser les flux de données et piloter la mise en œuvre des solutions permettant de soutenir les enjeux métiers et business. À ce titre, vos principales missions seront les suivantes : - Définir et piloter l’architecture data cible (Data Lake, Data Warehouse, flux batch et temps réel). - Aligner les initiatives data avec les priorités business et métier, et structurer la roadmap associée. - Concevoir et faire évoluer la plateforme data et les solutions techniques sous-jacentes dans un environnement cloud AWS. - Définir les standards d’ingestion, de transformation et demodélisation des données (dbt pour la transformation notamment). - Mettre en place les mécanismes d’exposition des données via APIs ou services internes/externes. - Structurer les pratiques de gouvernance de données, data quality et data lifecycle. - Superviser les plateformes permettant le déploiement des cas d’usage Data Science et IA. - Piloter les partenaires et prestataires intervenant sur les projets data et garantir la qualité des livrables. - Assurer le suivi des coûts de la plateforme data et optimiser l’usage des ressources cloud (FinOps). - Contribuer aux réflexions autour de l’évolution de l’écosystème data, notamment sur les solutions d’intégration (ex. iPaaS). Le poste combine vision d’architecture, capacité technique et pilotage, avec une part d’exécution technique mais une orientation progressive vers le pilotage et la structuration. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité),
CDD
CDI
Freelance

Offre d'emploi
Directeur de projets cybersécurité- ISP - N4

KEONI CONSULTING
Publiée le
DevSecOps
DORA
RGPD

18 mois
20k-60k €
200-700 €
Paris, France
CONTEXTE Objectif global : Accompagner Coaching sécurité dans les projets sécurité MISSIONS Description détaillée Profil : Coaching des projet avec expertise sécurité Accompagnement/Coaching sécurité dans les projets métier & infrastructure (démarche Intégration sécurité dans les projets) Evaluation/validation sécurité des architectures technique Travailler en étroite collaboration avec les équipes IT, infrastructure, support, et sécurité (LOD1 et LOD2). connaissances suffisantes en sécurité informatique pour comprendre et challenger les membres de l'équipe projet Prendre en charge le projet du cahier des charges à la recette utilisateur et son déploiement Suivre la conception du projet (besoin client, spécification fonctionnelle, lotissements, livrables…) Piloter le projet en constituant, organisant, coordonnant et animant l'équipe projet selon le cahier des charges (demande du client, budget, délais…) Livrer le projet au niveau de qualité attendu par le client Assurer le suivi auprès des clients Compétences techniques Infrastructure & Architecture de sécurité - Confirmé - Impératif Analyse de sécurité & risques - Expert - Impératif Démarche sécurité dans les projets - Expert - Impératif Connaissances linguistiques Anglais Professionnel Impératif Expérience (poste) : 6-9 ans ou plus de 9ans sur des postes similaires Compétences techniques : - Nécessaire : Maitriser le processus d'intégration sécurité dans les projets - Nécessaire : Réalisation d’analyse sécurité. Suivi d’une méthodologie afin de collecter les informations nécessaires à la réalisation d’une évaluation du niveau de sécurité d’un SI. Formalisation de recommandations avec leur priorisation. - Nécessaire : Etude d’architecture de sécurité. Bonne connaissance des modèles de l’état de l’art (3 tiers, moyens de segmentation, sécurité API, mise en œuvre de relais de sécurité, etc …). - Nécessaire : Réalisation d’analyse de risque basées sur le standard ISO 27005 et/ou EBIOS. - Nécessaire : Profil transverse ayant une bonne compréhension des différents domaines de sécurité et des fonctions offertes par les outils/solutions associées : Sécurité Réseau (FW, IPS/IDS, …) ; Gestion d’identité (IAM, AD, annuaires LDAP, …) ; Sécurité système (scan vulnérabilité, anti-malware, EDR, Hardening) ; Sécurité cloud publique (Security policies, CSPM, etc …) et M365 ; Sécurité IA; DevSecOps ; Bastion et réseaux d’administration ; Data protection (accès aux BDD, DLP, etc …) ; Solution de détection et de gestion d’incidents. - Utile : bonne connaissance des processus et standard de sécurité dans les grandes entreprises (lignes de défenses, outils de GRC, notion de PCA, RGPD, DORA, LPM). Capacité à synthétiser des sujets complexe et à les présenter à des comités stratégiques (CDG, COSTRAT, etc …). Connaissance linguistiques : Français Courant (Impératif), Anglais Professionnel (Impératif)
Freelance
CDI

Offre d'emploi
Ingénieur de production Cloud (IOPS)

VISIAN
Publiée le
Jenkins
Kubernetes

1 an
40k-45k €
290-400 €
Île-de-France, France
Ingénieur de Production Cloud (IOPS)Descriptif du poste Dans le cadre de cette offre, l'équipe souhaite une prestation d'ingénieurie de production (IOPS) Cloud capable de construire, configurer et tester une infrastructure en PaaS. L'équipe Cloud Platforms SaaS met à disposition du groupe des solutions SaaS sur 3 modèles : SaaS On Premise managé en interne SaaS On Premise managé par nos partenaires éditeurs SaaS Externe managé par nos partenaires éditeurs Les offres incluent des solutions de signature électronique, d'éditique et composition documentaire, d'entrée en relation, de gestion des consentements, d'hébergement web sur services PaaS et de développement IA. Responsabilités Participation à la définition de l'infrastructure Construction de l'infrastructure résiliente et sécurisée Mise en place du monitoring et la capacité de la plateforme à s'autogérer (scalabilité, gestion de la disponibilité des PODs) Assurance du run des applications
Freelance
CDI

Offre d'emploi
Analyste Concepteur Java / Powerbuilder

CAT-AMANIA
Publiée le
Analyse
J2EE / Java EE
PowerBuilder

1 an
51k-53k €
400-420 €
Paris, France
Nous recherchons pour une mission longue de 3 ans, un Analyste Concepteur Développeur, ayant des compétences Java, et Powerbuilder, ou dans le cas contraire capable de participer à la maintenance d'une application Powerbuilder. Vous intervenez dans l'entité Juridique d'un grand groupe d'assurance. Sous la responsabilité du manager Protection Juridique, vous êtes un interlocuteur privilégié des équipes, des pilotes projets, des MOA et des développeurs, pour les accompagner et les conseiller lors de la conception des solutions IT en réponse aux différents besoins exprimés. En collaboration avec le responsable applicatif du domaine et les architectes, vous assurez un rôle important dans la mise en place des évolutions informatiques du domaine, notamment sur les projets à forts enjeux et le maintien en conditions opérationnelles de l’existant. Vous contribuez à l'évolution et à la construction de solutions répondant aussi bien aux besoins métier qu’aux enjeux d’urbanisation, de sécurité, de performance et de modernisation des outils du poste de travail selon la trajectoire de modernisation du SI. En tant que société d’assurance, nos outils servent toute la chaine de valeur assurance (extranet de souscription, application gestion contrat, CRM Salesforce, outil interne pour la gestion des litiges, …) mais également la téléphonie, le pilotage (technique, économique, opérationnel) et des réalisations concrètes à base d’IA.
CDI

Offre d'emploi
Analyste Production Informatique DATA F/H

Experis France
Publiée le

40k-48k €
Niort, Nouvelle-Aquitaine
Analyste Production Informatique DATA F/H - Niort 🎯 Ingénieur / Analyste Production Informatique - Data / IA (F/H) 📍 Niort 📝 CDI - Expérience confirmée 🎯 Votre rôle Vous intervenez aux côtés du Responsable de Projet de Production pour garantir la bonne mise en œuvre des projets techniques et fonctionnels. Vous prenez en charge la pré-production, la mise en exploitation et le suivi opérationnel dans un environnement multiplateforme et orienté Data / IA. 🚀 Vos principales missions 📌 1. Pré-production & Projets Réception et analyse des dossiers d'homologation. Conception des chaînes de traitements (automatisation, ordonnancement…). Développement des procédures d'exploitation. Suivi et validation des tests d'homologation. Rédaction des dossiers d'exploitation. Livraison et intégration des applications en environnements pré-production / production. Coordination avec les équipes développement, support, exploitation, planning… Accompagnement du changement et transfert de compétences. Suivi des premières mises en exploitation et de la VSR (Vérification de Service Régulier). 📌 2. Exploitation & Maintien en conditions opérationnelles Supervision du bon fonctionnement des outils, traitements, systèmes et infrastructures techniques. Analyse des performances, mise en œuvre d'actions d'amélioration continue. Définition, documentation et contrôle des règles d'utilisation selon les standards internes. Contribution au dispositif Qualité. Pilotage des actions d'évolution pour optimiser performance, pérennité et sécurité. Validation de l'installation et de l'intégration des nouveaux outils et traitements. Coordination et réalisation des opérations de maintenance et de changements. Gestion des incidents et problèmes (diagnostic → remise en service). Gestion des droits d'accès. Application des normes de sécurité du SI. Veille technologique sur votre périmètre.
Freelance

Mission freelance
Service Owner Data Platforms (Braincube / Dataiku)

Signe +
Publiée le
Dataiku

12 mois
500-550 €
Malakoff, Île-de-France
Objectif de la mission Garantir le niveau de service, la gouvernance et le pilotage opérationnel (run) des plateformes Braincube et Dataiku, en assurant la performance, la conformité et l’amélioration continue du service. Responsabilités principales Maintenir les standards de service, assurer la conformité licences et suivre les usages via des KPIs Gérer incidents, demandes et changements, assurer la communication interne et utilisateurs Définir et suivre les SLA, piloter la performance du service et les indicateurs associés Structurer la roadmap, identifier les améliorations continues et piloter le plan de charge Garantir la résilience des plateformes (évolutions, obsolescences) et la sécurité des données Piloter les activités opérationnelles multi-sites (France / Inde / éditeurs / prestataires) Assurer l’interface avec les équipes IT et data pour faciliter l’exploitation du service Produire la documentation de service (guides, onboarding, bonnes pratiques) Environnement technique Braincube, Dataiku AWS (S3, EC2, EKS), déploiements sécurisés Connaissances ML Ops / Data Science / IA / IA générative Architecture SI / data, gouvernance data, exploitation et performance Sécurité et conformité (RBAC, chiffrement, logging, RGPD) Livrables attendus Reporting KPI et suivi des SLA Guides de bonnes pratiques et supports de formation Documentation de service et onboarding Plan de montée en compétences et roadmap d’amélioration Profil recherché Service Owner / Service Manager senior (8+ ans) Expérience pilotage run et gouvernance de plateformes data / analytics Solide compréhension des environnements cloud AWS et des enjeux data
Freelance

Mission freelance
Expert Marketplace / Product Data

Okara
Publiée le
Audit
E-commerce
Gestion des risques

3 mois
400-850 €
Lille, Hauts-de-France
Le contexte : Notre client, acteur de référence de l’équipement de la maison, transforme sa Marketplace en un environnement nativement sécurisé. L'enjeu est de taille : passer d'une vigilance artisanale à une conformité industrielle. Nous recherchons un consultant senior pour piloter ce passage au "Safety by Design" . Les enjeux opérationnels : Face à la volumétrie des inventaires, la modération manuelle a atteint ses limites. Vous intervenez pour structurer des mécanismes de blocage natifs dès le référencement. Le projet s’articule autour de la cohérence des catalogues (Modèle Commun) et l’intégrité des données réglementaires avant toute mise en ligne. Votre périmètre d'intervention : Directement rattaché à la direction Marketplace, vous agissez comme un véritable partenaire stratégique pour : Audit & Challenge : Analyser la robustesse des processus actuels et arbitrer le curseur entre fluidité business et "Business Stoppers". Feuille de route : Challenger les choix de blocage (gel des offres vs blocage catalogue) au regard des réalités du marché. Sourcing technologique : Identifier et recommander les solutions de filtrage automatisé (IA, reconnaissance d’images, API de conformité) les plus pertinentes.
Freelance

Mission freelance
Architecte technico - fonctionnel Sauvegarde/Backup

MLMCONSEIL
Publiée le
Sauvegarde

1 an
120-600 €
Île-de-France, France
Description de la mission Pour le besoin de mon client , je suis à la recherche d'un Architecte technico - fonctionnel Sauvegarde/Backup Compétences Demandées Expertise et expérience obligatoires sur au moins une des solutions de sauvegarde suivantes : COMMVAULT, DELL Avamar/DataDomain/PPDM : • Connaissances sur plusieurs autres solutions de sauvegarde sur le marché • Très bonnes connaissances du fonctionnement Systèmes & OS Windows (Servers 2016 & suivantes) & Unix (Linux RHEL/SUZE, Solaris, …), HP-UX, … • Bonnes connaissances en Automatisation et en Développement de type Ansible, RestAPI, Python ou PowerShell • Idéalement expérience en IA • Bonnes connaissances en Data Analytics et outils de gestion de reportings (PowerBI, Grafana, Prometheus, …) • Connaissances des éléments de sécurité (chiffrement/déchiffrement des données, PKI, authentification, firewall, antivirus, patchs de sécurité, …)
Freelance
CDI

Offre d'emploi
INGÉNIEUR DEVOPS

EterniTech
Publiée le
Azure
GenAI
Méthode Agile

3 mois
Paris, France
Je cherche pour un de mes clients un DEVOPS AI Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentation Compétences techniques: -Terraform - Confirmé - Impératif -GenAI - Junior - Important -Azure - Confirmé - Important - Agile - Junior - Souhaitable Connaissances linguistiques: -Français Courant (Impératif) -Anglais Professionnel (Impératif) Description détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. **VOTRE PROFIL** * Bac +3 à Bac +5 en informatique, génie logiciel, ou équivalent. * Expérience professionnelle confirmée (minimum 3 ans) en développement logiciel, idéalement en environnements Cloud (Azure). * Solides compétences en programmation Python et JavaScript (Node.js, React) ; bonne pratique des design patterns backend/frontend. * Expérience avec les architectures cloud Azure : AKS, WebApp, storage, services PaaS et bonnes pratiques d’exploitation. * Maîtrise de la conteneurisation et de l’orchestration (Docker, Kubernetes) et des pipelines CI/CD (Azure DevOps, GitHub Actions). * Connaissance d’Infrastructure as Code (Terraform) et des pratiques DevOps. * Compréhension des concepts GenAI (LLMs, RAG, embeddings, vector DB) et capacité à intégrer des composants IA en collaboration avec un AI Engineer ; expérience pratique appréciée mais pas impérative. * Compétences en bases de données SQL/NoSQL et en conception de schémas adaptés aux besoins d’indexation/sémantique. * Rigueur sur la qualité du code : tests, revue, automatisation ; sensibilité aux enjeux de sécurité et de souveraineté des données. * Curiosité technique, capacité d’adaptation (outils et stacks variables selon les besoins), esprit d’équipe et bon relationnel. * Familiarité avec les outils low-code/no-code est un plus. * Anglais professionnel (lu/écrit) ; français courant indispensable. * Disponible pour être en régie sur 2026, et participer activement à la construction et à la standardisation des pratiques d’une AI Factory interne. Définition du profil : DEVOPS ENGINEER INGÉNIEUR DEVOPS Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps Description du besoin : Mission :DEVOPS Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé
770 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous