L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 028 résultats.
Mission freelance
INGENIEUR DE PRODUCTION OPS (480€ MAX)
BEEZEN
Publiée le
Administration linux
6 mois
300-480 €
Île-de-France, France
Missions principales ==> Gérance d'un portefeuille d’applications de bout en bout (Build & Run) : • Pilotage, maintenance, évolution et amélioration continue. ==> Assurance de support applicatif sur l’ensemble du périmètre : • Production de la météo applicative quotidienne, avec une vision à la fois technique et fonctionnelle. • Développement d' une bonne connaissance fonctionnelle des applications afin d’assurer un support de premier niveau (analyse, diagnostic, investigations), en utilisant les outils adaptés : analyses de logs, monitoring, supervision, etc. • Réalisation des tests applicatifs pour sécuriser les évolutions, les correctifs et les changements transverses. • Montrer une réelle appétence pour l'apprentissage et l’évolution technologique, en se formant continuellement aux différentes briques du SI. • preuve de polyvalence technique afin d’assurer une mise en œuvre complète des activités projet et run, dans le respect des normes, standards et bonnes pratiques. • Capacité à analyse des incidents avec une lecture métier (impacts clients, processus fonctionnels, SLA) ==> Garantir l’exploitation des environnements de pré-production et de production pour les applications du périmètre : • Mise en œuvre opérationnelle, gestion des incidents (participation aux task force, contribution aux comptes rendus d'incidents) et MCO. • Réalisation des migrations techniques, montées de version middleware et applicatives. • Validation, préparation et déploiement des évolutions décrites dans les dossiers d’exploitation. • Fiabilisation du run : disponibilité serveurs, sauvegardes, exercices ICP/DR, alerting, supervision, gestion des flux, renouvellement de certificats, patching, etc. • Contribution aux projets, sur la base des Dossiers d’Installation (DI) et Dossiers d’Exploitation (DEX). • Suivi et optimisation des performances applicatives et serveurs (mémoire, CPU, WAS). ==> Technologies: • API • Ordonnancement (Autosys de préférence) • OS Unix (Linux et AIX) avec connaissance système, analyses logs système et gestion des groupes/comptes/filesystem • SGBD (ex : Oracle, PostgreSQL, MongoDB) • Réseau/Flux : CFT, connaissance des flux IP/Ports, ouverture de flux, debug • Langage de programmation : shell, bash, perl, PHP • Connaissances Cloud (Docker, Kubernetes, Jenkins, Ansible, notions de python) • Lecture et rédaction de documentation, échanges avec équipes internationales, participation à des réunions techniques ==> Compétences souhaitées qui seraient un plus • Outils de monitoring/reporting : Dynatrace, ELK ( elastic search / logstach / kibana ) • Traitement des Tickets Servicenow générés sur Alerting applicatif (Dynatrace) • Notions de tunning JVM (avec connaissance de structure que compose une machine virtuelle java => mémoire, thread) ==> Langues • Anglais Niveau B2 (technique et professionnel) ==> Autres • La mission peut nécessiter occasionnellement des opérations en HNO et/ou des astreintes
Offre d'emploi
Ingénieur Mécanique Conception Creo H/F
TOHTEM IT
Publiée le
40k-55k €
Élancourt, Île-de-France
Le poste Dans le cadre de projets industriels innovants (aéronautique, défense, équipements complexes), nous recherchons un(e) Ingénieur Mécanique en conception maîtrisant Creo pour renforcer nos équipes. Vous interviendrez sur des projets à forte technicité, de la phase de conception jusqu’à la validation des produits. Vos missions Concevoir et modéliser des pièces et ensembles mécaniques sous Creo Réaliser les études de conception (3D, mises en plan, cotation fonctionnelle) Participer aux choix techniques et à l’architecture produit Intégrer les contraintes mécaniques, thermiques et industrielles Suivre les phases de prototypage, essais et validation Piloter les modifications et assurer le suivi des évolutions Rédiger la documentation technique (dossiers de définition, notes de calcul…) Collaborer avec les équipes méthodes, production et qualité
Mission freelance
Expert Data migration SAP
Montreal Associates
Publiée le
15 mois
650-700 €
75001, France
Bonjour, 🚫 𝐏𝐀𝐒 𝐃𝐄 𝐒𝐎𝐔𝐒-𝐓𝐑𝐀𝐈𝐓𝐀𝐍𝐂𝐄!🚫 Je recherche actuellement pour un de mes clients plusieurs profils : 🔔 𝟑 𝐂𝐨𝐧𝐬𝐮𝐥𝐭𝐚𝐧𝐭𝐬 𝐞𝐧 𝐃𝐚𝐭𝐚 𝐌𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑑𝑜𝑛𝑛𝑒́𝑒𝑠 𝐵𝑜𝑛𝑛𝑒 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛 𝑆𝐴𝑃, 𝑖𝑑𝑒́𝑎𝑙𝑒𝑚𝑒𝑛𝑡 𝑆4 𝑀𝑎𝑖𝑡𝑟𝑖𝑠𝑒 𝑑𝑒 𝑙𝑎 𝑚𝑒́𝑡ℎ𝑜𝑑𝑜𝑙𝑜𝑔𝑖𝑒 𝐷𝑇𝑀 𝐶𝑎𝑝𝑎𝑐𝑖𝑡𝑒́ 𝑎̀ 𝑡𝑟𝑎𝑑𝑢𝑖𝑟𝑒 𝑙𝑒𝑠 𝑠𝑝𝑒́𝑐𝑖𝑓𝑖𝑐𝑖𝑡𝑒́𝑠 𝑑𝑒𝑠 𝑜𝑏𝑗𝑒𝑡𝑠 𝑒𝑛 𝑢𝑛𝑒 𝑠𝑡𝑟𝑎𝑡𝑒́𝑔𝑖𝑒 𝑒𝑡 𝑢𝑛𝑒 𝑚𝑒́𝑡ℎ𝑜𝑙𝑜𝑔𝑖𝑒 𝑠𝑡𝑟𝑢𝑐𝑡𝑢𝑟𝑒́𝑒𝑠 𝐹𝑜𝑟𝑡 𝑖𝑛𝑡𝑒́𝑟𝑒̂𝑡 𝑝𝑜𝑢𝑟 𝑙𝑒 𝑝𝑎𝑟𝑡𝑎𝑔𝑒 𝑑𝑒𝑠 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒𝑠, 𝑙𝑎 𝑓𝑜𝑟𝑚𝑎𝑡𝑖𝑜𝑛 𝑒𝑡 𝑙𝑎 𝑚𝑖𝑠𝑒 𝑒𝑛 𝑜𝑒𝑢𝑣𝑟𝑒 𝑑𝑒 𝑙𝑎 𝑚𝑒́𝑡ℎ𝑜𝑑𝑜𝑙𝑜𝑔𝑖𝑒 𝐸𝑥𝑐𝑒𝑙𝑙𝑒𝑛𝑡𝑒 𝑎𝑝𝑡𝑖𝑡𝑢𝑑𝑒𝑠 𝑎̀ 𝑎𝑛𝑖𝑚𝑒𝑟 𝑢𝑛𝑒 𝑐𝑜𝑚𝑚𝑢𝑛𝑎𝑢𝑡𝑒́ 🎯 𝐌𝐢𝐬𝐬𝐢𝐨𝐧 𝐏𝐚𝐫𝐭𝐢𝐜𝐢𝐩𝐞𝐫 𝐚̀ 𝐥𝐚 𝐦𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐝𝐞 𝐝𝐨𝐧𝐧𝐞́𝐞𝐬 𝐝𝐞 𝐥𝐚 𝐩𝐫𝐞́𝐩𝐚𝐫𝐚𝐭𝐢𝐨𝐧 𝐚̀ 𝐥'𝐞𝐱𝐞́𝐜𝐮𝐭𝐢𝐨𝐧. -Permettre aux équipes locales de mener à bien la définition de l'approche de migration jusqu'à la validation des données métier. -Piloter le calendrier d'exécutions des objets. -Assurer l'analyse de premier niveau des anomalies - Apporter un soutien aux responsables d'applications en fournissant les informations nécessaires à la propagation des données. - Définir la stratégie de néttoyage des données, les indicateurs (KPI) et le suivi - Garantir la cohérence entre les régions et soutenir l'amélioration continue - Définir et maintenir les modèles de migration, les rapports et tableaux de bord de qualité des données, la base de connaissances. - Arbitrer les écarts par rapport à la méthodologie et gérer l'impact des demandes de dérogation sur leur périmètre. - Former et animer la communauté sur le périmètre des objets. 🔊 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐜𝐨𝐮𝐫𝐚𝐧𝐭 obligatoire 📍𝐈𝐃𝐅 - 3j semaine sur site 🕐 Début mars - 𝟔 𝐦𝐨𝐢𝐬 𝐫𝐞𝐧𝐨𝐮𝐯. 💶 𝐓𝐉𝐌 : 700€ max Montreal Associates is acting as an Employment Business in relation to this vacancy.
Mission freelance
Product Owner Data/BI (Lille)
SQLI
Publiée le
CoreData
6 mois
400-600 €
Lille, Hauts-de-France
Bonjour, Pour le compte de l'un de mes clients Lillois, je suis à la recherche d'un Product Owner Data orienté BI. Mandatory : Une expérience de projets Power BI, afin de piloter la transformation des outils de reporting. Ses responsabilités : • Cadrer et formaliser les besoins métiers, organiser les demandes et la solution BI. • Collaborer avec les sponsors internes de la transformation pour favoriser l’engagement autour du projet. • Animer des ateliers de Product Discovery pour comprendre les usages, les irritants, les objectifs et les indicateurs clés. • Construire et maintenir le backlog BI, prioriser les sujets et arbitrer les évolutions en lien avec les entités métiers. • Collaborer étroitement avec le Tech Lead, les développeurs BI et les équipes Data pour garantir la cohérence et la qualité des livrables. • Valider les maquettes, prototypes (Figma) et rapports développés, en assurant leur pertinence métier, leur lisibilité UX et leur conformité aux standards. • Contribuer à la mise en œuvre d’un Design System dataviz, assurant cohérence et appropriation des tableaux de bord. • Favoriser la montée en compétence des équipes métiers sur la lecture, l’usage et l’évolution des rapports. • Garantir une documentation fonctionnelle claire et à jour pour faciliter la maintenance et la réversibilité. • Suivre les indicateurs de Delivery du projet à présenter lors des instances de pilotage.
Mission freelance
Data Platform Engineer (Hadoop CDP/HDP, Spark, Airflow, Kubernetes) - IDF
ISUPPLIER
Publiée le
Apache
Hortonworks Data Platform (HDP)
Kubernetes
1 an
450-650 €
Île-de-France, France
Objectifs de la mission Le bénéficiaire souhaite une prestation d’accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters, Prestations demandées Les missions sont: Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Offre d'emploi
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse
12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
Offre d'emploi
Ingénieur d’Affaires confirmé en IT ou digitale
Sapiens Group
Publiée le
Commercial
Recrutement
40k-45k €
Paris, France
Développer et fidéliser un portefeuille clients existant et prospecter de nouveaux comptes à fort potentiel, Gestion et développement de comptes avec des missions embarquées, Identifier et qualifier les besoins IT stratégiques de vos interlocuteurs (DSI, directions métiers) pour leur proposer des solutions adaptées et innovantes, Piloter l’ensemble du cycle de vente , depuis la détection d’opportunité jusqu’au closing, en passant par la construction de propositions de valeur et la négociation commerciale. Gérer la relation client dans la durée , en assurant le suivi des prestations et la satisfaction avec les consultants et équipes internes. Contribuer au recrutement et à la gestion des talents techniques , en lien avec les besoins identifiés et en coordination avec l’équipe recrutement. Être force de proposition sur la stratégie commerciale , participer à l’élaboration des offres et partager votre expérience avec des profils plus juniors.
Mission freelance
Consultant SAP FI/CO + Data Migration
ALLEGIS GROUP
Publiée le
SAP FICO
1 an
400-550 €
Clamart, Île-de-France
Dans le cadre d’un projet SAP Finance en cours, notre client recherche un Consultant SAP FI/CO confirmé , capable d’intervenir à la fois sur la conception fonctionnelle , l’accompagnement des métiers et les travaux de migration de données . Le consultant interviendra en renfort sur un périmètre critique pour la bascule de fin d’année . Responsabilités principales Participation aux ateliers avec les équipes Finance & Controlling Analyse des besoins et rédaction de la documentation fonctionnelle (spécifications, process…) Contribution aux activités de Data Migration : mapping, validation, reprise, contrôle de cohérence Accompagnement des utilisateurs, support UAT, correction des anomalies Collaboration étroite avec les équipes techniques (ABAP, Data, Basis) Suivi d’avancement et reporting auprès du chef de projet
Mission freelance
INGÉNIEUR RÉSEAU
SKILL EXPERT
Publiée le
BGP (Border Gateway Protocol)
DHCP (Dynamic Host Configuration Protocol)
DNS
120 jours
500-550 €
Nord, France
COMPÉTENCES REQUISES LAN & WAN, SWITCHES LIKE CISCO, HP, ETHERNET, VLAN Confirmé PROTOCOLE OSPF, BGP, MPLS, ISIS DNS, DHCP, IPAM, Confirmé P LOAD BALANCING, GSLB (E.G. F5, NETSCALER) Confirmé VIRTUALIZATION (VMWARE NSX, VXLAN) SYSTÈMES,LINUX Confirmé Descriptif de la mission Notre Client recherche pour cette mission un Ingénieur Réseau Les tâches au quotidien sont : • Assurer l’administration réseau des plateformes techniques du Client • Gérer les demandes (demande DNS, IP, ouverture Firewall) • Gérer l'infrastructure de niveau 2 (switching), niveau 3 (routing) • Paramétrer les Pare-feux réseaux et applicatifs • Calibrer et installer les sondes IPS • Créer les protocoles de routage pour l’interconnexion des datacenters et clients externes • Effectuer l'administration et les évolution des architectures Internet et de protection DDOS • Maintenir les conditions opérationnelles de l’ensemble des plateformes • Effecteur la maintenance corrective / préventive • Participer à la définition et aux déploiements des nouvelles infrastructures • Contribuer à l’uniformisation des processus entre les différentes équipes françaises et européennes • Mettre en place ou contribuer au développement des outils de demain qui accompagnent la transformation du métier d’administrateur système et réseaux (automatisation, industrialisation, …) • Maintenir et faire évoluer les plateformes en production vers les dernières technologies (Capacity planning, gestion de l’obsolescence, …) Les compétences requises pour cette mission sont : • Justifier d'au moins 4/5 ans d'expérience professionnelle dans ce domaine • Avoir de bonnes compétences avec les Web services et Web Proxy • Etre à l'aise avec le LAN/WAN • Avoir de bonnes compétences en switching, et en routing de protocols • Avoir de bonnes connaissances avec la stack technique proposé par le Client Environnement technique de la prestation LAN & WAN, switches like Cisco, Hp, ethernet, VLAN, trunking, xSTP Protocole OSPF, BGP, MPLS, ISIS DNS, DHCP, IPAM, NTP services IP load balancing, GSLB (e.g. F5, Netscaler) Network virtualization (VmWare NSX, VXLAN) Systèmes : Linux RH, CentOS, Debian, Windows Server
Offre d'emploi
Ingénieur en sécurité Opérationnelle - IAM SailpontIQ- N4 - 2
KEONI CONSULTING
Publiée le
BeanShell
Java
sailpoint
18 mois
20k-60k €
100-600 €
Paris, France
CONTEXTE Objectif global : Participer à la construction de la nouvelle plateforme IAM Groupe Nous recherchons un Développeur Senior pour rejoindre notre équipe en charge du développement d'un outil de gestion des identités et des accès (IAM) basé sur la solution SailPointIQ. Ce projet inclut la reconstruction de la plateforme au cours de l'année pour assurer sa mise en conformité. Missions : Concevoir et développer des fonctionnalités pour l'outil IAM SailPointIQ. Participer à la reconstruction de la plateforme pour garantir la conformité aux normes en vigueur. Collaborer avec les équipes techniques et métiers pour définir les besoins et les spécifications. Assurer la maintenance et l'évolution de l'application. Compétences techniques Java - Confirmé - Impératif Sailpoint IQ - Expert - Impératif Angular - Confirmé - Important Beanshell - Confirmé - Souhaitable Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Secondaire)
Mission freelance
Tech Lead Data GCP Expert F/H
SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker
12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Offre d'emploi
Ingénieur Devops AWS/GCP (H/F)
DCS EASYWARE
Publiée le
Paris, France
Vous interviendrez au sein d’une équipe en charge du supportapplicatif sur un périmètre lié aux métiers RH et Communication. Vos missions Assurer le support des applications métiers (gestion des incidents, MCO) Piloter des projets applicatifs et techniques : Mise en place de nouvelles applications Migrations / refresh techniques Participer à l’intégration de briques DevOps (XLDeploy, XLRelease…) Collaborer étroitement avec les équipes de développement et d’infrastructure Contribuer à l’amélioration continue du périmètre applicatif Environnement technique Serveurs d’applications : PHP, Tomcat, IIS Scripting & ordonnancement : Control-M Environnements : Windows & Linux Cloud : AWS, GCP DevOps : outils de déploiement et d’automatisation Contexte Environnement international avec des échanges réguliers en anglais (équipes basées à Porto) Participation à des astreintes Interventions possibles en heures non ouvrées (HPO)
Offre d'emploi
DATA ENGINEER GCP
Peppermint Company
Publiée le
Apache Spark
Google Cloud Platform (GCP)
Hadoop
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre d’un projet stratégique de transformation data, nous recherchons un Data Engineer orienté développement , capable d’intervenir sur une migration d’envergure d’Azure vers GCP . 🛠️ Missions principales Participation active à la migration des pipelines data d’Azure vers GCP Développement et optimisation de traitements data Conception d’architectures data robustes et scalables Collaboration avec les équipes data et métiers Contribution aux bonnes pratiques data engineering 🔧 Stack technique Google Cloud Platform (GCP) – niveau confirmé requis Apache Spark / Scala Hadoop ecosystem Forte orientation développement (profil Data Engineer "DEV")
Mission freelance
Data Analyst (H/F) - 92 + Remote
Mindquest
Publiée le
AI
CRM
ETL (Extract-transform-load)
3 mois
250-450 €
Neuilly-sur-Seine, Île-de-France
Contexte Au sein de la fonction IT Commercial Excellence, le poste s’inscrit dans la mise en œuvre de la stratégie et de la feuille de route Digital Front-End, en étroite collaboration avec les parties prenantes métiers. Le rôle contribue également à l’innovation sur les processus, les outils et les technologies afin de soutenir la performance commerciale et la transformation digitale Mission principale La mission prioritaire consiste à piloter de bout en bout les activités de reporting et d’analytics pour un projet stratégique Route to Market en France, de la phase de définition jusqu’à la mise en œuvre opérationnelle. Le poste vise à fournir des solutions analytiques, stables, scalables et orientées métier, en s’appuyant sur les meilleures technologies du marché Responsabilités principales Piloter les activités de reporting et d’analytics de bout en bout sur des projets stratégiques Mettre en œuvre des solutions analytiques et technologiques en approche Agile Développer les capacités analytics et enrichir le portefeuille applicatif Concevoir des solutions adaptées aux besoins métiers, avec une forte orientation utilisateur Intégrer les technologies avancées de Data & AI dans les plateformes et processus Garantir la qualité, l’exploitabilité et l’organisation des données Définir les processus cibles et accompagner leur adoption par les métiers Identifier les tendances du marché, les meilleures pratiques et proposer des axes d’amélioration Évaluer les solutions aussi bien d’un point de vue conceptuel qu’opérationnel Soutenir les projets commerciaux clés au niveau local et européen Gérer les priorités locales et porter une vision régionale sur les processus et leur adoption Faire le lien entre la conception des processus et la capacité de delivery des solutions Interactions clés En interne : Parties prenantes Digital Front-End des différentes BU et BPO Équipes régionales centrales, solutions et digitales Responsables IT locaux et membres de l’équipe de direction IT Centre d’excellence Commercial Excellence Responsable IT Commercial Excellence Analyste IT Commercial Excellence En externe : Fournisseurs tiers AMS Parties prenantes Enjeux du poste Assurer un delivery agile et rapide de solutions adaptées aux besoins Stimuler l’innovation sur la donnée, les outils et les modes de fonctionnement Tirer parti des capacités digitales et analytiques internes et externes Concevoir une expérience utilisateur de qualité Mettre la donnée au cœur des dispositifs de pilotage et de transformation Intégrer l’analytics avancée et l’IA dans les usages métiers
Mission freelance
Data Scientist / AI Engineer
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Offre d'emploi
Ingénieur de production Expert domaine distribué
AVA2I
Publiée le
Bash
Batch
Powershell
1 an
Île-de-France, France
🧭 Contexte de la mission Dans le cadre de l’évolution des outils d’exploitation et de l’industrialisation des processus, la mission vise à : Accompagner l’adoption de nouveaux outils d’ordonnancement et de transfert de fichiers Assurer le maintien en conditions opérationnelles des plateformes techniques Renforcer la documentation réglementaire et opérationnelle liée à l’exploitation 🎯 Objectifs de la mission Garantir la stabilité et la performance des systèmes d’exploitation Optimiser les processus d’ordonnancement et d’automatisation Assurer le support aux équipes de production Contribuer à l’amélioration continue et aux audits 🔧 Responsabilités techniques Assurer le Maintien en Conditions Opérationnelles (MCO) des plateformes Administrer et exploiter les outils d’ordonnancement et de transfert de fichiers Maintenir, optimiser et développer les plans d’ordonnancement (scheduling) Identifier, analyser et résoudre les incidents et problèmes Automatiser les tâches via scripting (Shell, Bash, PowerShell…) Participer au déploiement et à l’exploitation des solutions de monitoring 📊 Responsabilités d’exploitation Assurer le support aux équipes de production (niveau 2) Suivre les mises en production (MEP) et coordonner avec les équipes applicatives Produire et maintenir la documentation d’exploitation et de gestion des incidents Mettre en place des tableaux de bord (monitoring & ordonnancement) Garantir la qualité et la disponibilité des livrables d’exploitation 🧩 Responsabilités organisationnelles Appliquer les bonnes pratiques et processus de gestion des services IT (type ITIL) Participer aux audits internes et externes Structurer et maintenir la documentation d’équipe (outils collaboratifs) Collaborer avec des équipes distantes et assurer le suivi des activités Anticiper les besoins techniques et organisationnels Proposer des axes d’amélioration continue 🧠 Compétences fonctionnelles Français courant (oral et écrit) Anglais professionnel (niveau B2 minimum) Excellentes capacités rédactionnelles Sens du service et orientation résultats Esprit d’analyse et résolution de problèmes Capacité à travailler en équipe Adaptabilité et réactivité Rigueur et respect des engagements
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- J'ai lancé un outil IA pour automatiser la rédaction pro des freelances — vos retours ?
- Mission validée en freelance, ESN veut basculer en CDI : que faire ?
- profil effacé
- Etat du marché 2026: rebond ou stagnation ?
- Déclaration TVA suite dépassement plafond
- Nouveau volet social dans la déclaration d'impôts sur le revenu
3028 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois