L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 010 résultats.
Mission freelance
Consultant(e) réseau sécurité - Expert(e) et certifié(e) TUFIN AURORA
PROPULSE IT
Publiée le
Tufin
24 mois
350-700 €
Paris, France
Notre client vient de renouveler les machines Tufin obsolètes et souhaite configurer un module supplémentaire : Secure Change et l'interfacer avec son ITSM (ServiceNOW). Il souhaite également avoir des reporting disponibles dans son outil web PowerBi basé sur l'API Tufin. (exports de préférence en powershell). L'application Tufin est configurée en on-premise sur des appliances Tufin (T-820-worker nodes et T1220-data node) en Aurora. L'objectif est également un accompagnement sur la mise en place de la haute disponibilité et l'ajout du périmètre AWS. Prestation attendue Dans le cadre de cette prestation, le prestataire aura pour mission de : - Etablir les workflows avec Safran pour les demandes suivantes : • ouvertures/fermetures de flux réseaux • mises à jour de groupes de sécurités sur les équipements • vérifications de flux réseaux • extract de règles pour une application/service donné - Interfacer ces workflows avec l'ITSM du groupe (ServiceNOW) et le module SecureChange de Tufin. - Mettre à disposition des exports basés sur l'API Tufin. Le but est de construire des KPI (nombre de demande par jour/semaine, nombre de règles modifiées, nombre d'objets, nombres d'objets dupliqués) et construire ces rapports PowerBI basés sur ces exports. - Mettre en place la migration du RUN Tufin vers une équipe dédiée Run N-1 et N-2 actuellement supporté par les experts N-3. Rédaction de document d'exploitation, arbre de décision, aide à la rédaction d'offres de service telle que : création de compte, demande d'export, etc. - Supporter notre client dans l'exploitation du module SecureTrack en proposant des améliorations et/ou des best practices de l'éditeur. - Support à l'ajout des équipements réseaux AWS sur Tufin. Livrables • Les workflows (de préférence sous MS visio) • Les documents demandés par l'équipe SNOW pour l'interfaçage des 2 applications (contenant le nom des champs des formulaires SecureChange par exemple) de type contrat d'interface • Les guides d'exploitations de SecureChange et SecureTrack destinés à l'équipe de RUN N-1 et N-2 sous format word et pdf. • Les exports (dont le/les script/scripts) et les rapports pour les KPI sous PowerBI • Support de formation à destination des référents Réseaux expert N-1/2/3 (sous PPT) Tous les documents (sauf contre-indication) devront être rédigés en Français ET en Anglais. Les prestations ci-dessus devront être réalisées à partir du 01/03/2024 et se terminer au plus tard le 30/09/2024.
Mission freelance
Architecte système de gestion de bases de données H/F
DCS EASYWARE
Publiée le
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons un(e) architecte SGBD H/F pour rejoindre nos équipes Clermontoises Allez, on vous en dit plus... En lien avec notre manager Sébastien, voici les différents périmètres qui vous seront confiées : Architecture produit : Vous serez le garant de la cohérence architecturale des solutions SGBD, en veillant à l'optimisation des performances, de la sécurité et de la scalabilité. Stratégies : Vous définirez et mettrez en œuvre les stratégies de développement des produits database, en tenant compte des évolutions technologiques et des besoins métiers. Dette technique : Vous identifierez et traiterez la dette technique au sein des produits existants, en proposant des solutions innovantes et pérennes . Expertise technique : Vous serez l'expert de niveau 3+ sur les composants DB (Oracle, Post-Gre, Mongo DB) et vous apporterez votre conseil sur les évolutions de versions et les changements d'infrastructure. Innovation : Vous serez force de proposition pour évaluer et intégrer de nouvelles technologies afin de répondre aux enjeux de demain.
Offre d'emploi
Databricks Data Engineer
VISIAN
Publiée le
API REST
PySpark
1 an
Île-de-France, France
Descriptif du poste Expert reconnu en plateforme de données et architecture Lakehouse, incluant : Optimisation Spark / PySpark (AQE, broadcast joins, stratégies de caching, autoscaling de cluster). Politiques de cluster, configuration de cluster et pool, et optimisation des coûts. Monitoring, diagnostics et dépannage des performances à l'aide de métriques et event logs. APIs REST et CLI pour l'automatisation. Expert reconnu en utilisation de Delta Lake, incluant : Pipelines d'ingestion et de transformation (Bronze–Silver–Gold). Delta Live Tables pour les pipelines de production (CDC, expectations, orchestration). Structured streaming et traitement incrémental. Débogage des goulots d'étranglement de performance dans les workloads Delta (data skew, petits fichiers, auto-compaction). Expert reconnu en : Python pour l'ingénierie des données, programmation orientée objet, data science, tests unitaires (pytest) et packaging. SQL (SQL analytique, window functions, SQL Databricks). Spark / PySpark pour le traitement distribué et l'optimisation. Expert reconnu en utilisation de Unity Catalog, incluant : Implémentation du contrôle d'accès granulaire (sécurité au niveau des lignes et colonnes, vues dynamiques, masquage). Gestion des objets Unity Catalog à grande échelle (catalogs, schémas, tables, modèles et gouvernance des fonctions). Pratiques de développement sécurisé, protection des données et conformité réglementaire (RGPD, PII). Expert reconnu en Databricks Jobs et Workflows (orchestration des tâches, retries, monitoring), incluant : Databricks Repos et intégration Git / Gitflow. Déploiement des assets Databricks (notebooks, jobs, pipelines DLT) via des pipelines CI/CD. Databricks SQL editor et SQL Warehouses pour les dashboards ou pipelines de production. Infrastructure as Code utilisant Terraform (providers Databricks et Azure) et ARM templates. Maîtrise avancée de l'écosystème Databricks Machine Learning et Generative AI. Maîtrise avancée de MLflow (experiment tracking, model registry, model serving). Maîtrise avancée de la construction de pipelines ML utilisant Databricks AutoML, Feature Store et feature engineering. Expérience pratique avérée avec les outils de développement basés sur l'IA, incluant les workflows basés sur des agents. Bonne compréhension des normes d'interopérabilité émergentes telles que le Model Context Protocol (MCP) ou équivalent. Capacité à évaluer de manière critique et à intégrer de manière sécurisée les résultats générés par l'IA dans les workflows de développement.
Mission freelance
Data Analytics– Power BI (Pilotage Financier & RH)
Atlas Connect
Publiée le
Analyse financière
BI
Comptabilité
3 mois
480-560 €
Paris, France
Dans le cadre d’un projet stratégique à fort impact, notre équipe Data Analytics renforce ses capacités pour concevoir un outil de pilotage financier et RH qui deviendra la référence au niveau groupe. Ce projet structurant est mené en collaboration directe avec le CFO, la DRH et le contrôle de gestion. 🧩 Missions Rattaché(e) à l’équipe Data Analytics, vous interviendrez sur : 🔹 Conception & déploiement Concevoir et développer un dashboard Power BI avancé Mettre en place un outil de pilotage consolidé : P&L, budgets, forecasts Structurer un modèle de données robuste et scalable 🔹 Data engineering & modélisation Intégrer des données multi-sources (comptabilité, RH, paie) Concevoir des modèles de données complexes Développer des mesures avancées en DAX Garantir la qualité, la cohérence et la fiabilité des données 🔹 Collaboration métier Travailler en lien direct avec : CFO DRH Contrôle de gestion Traduire les besoins métiers en indicateurs actionnables Accompagner les utilisateurs dans la prise en main de l’outil
Mission freelance
Business Analyst santé Data DBT Snowflake – Données santé/cliniques et opérationnelles - remote
WorldWide People
Publiée le
Business Analysis
6 mois
Lyon, Auvergne-Rhône-Alpes
Business Analyst – Données cliniques et opérationnelles Compétences requises Solide expérience des standards de données de santé / cliniques (HL7, FHIR, ICD-10, LOINC, etc.). Bonne compréhension des plateformes et pipelines de données (Snowflake, dbt, IICS appréciés). Capacité à rédiger une documentation fonctionnelle claire , des user stories et des critères d’acceptation. Excellentes compétences en communication et expérience en environnement Agile . 3 à 6 ans ou plus d’expérience en tant que Business Analyst dans des contextes data, santé ou réglementaires . Un Business Analyst pour soutenir des initiatives impliquant des données cliniques et opérationnelles (MDM, SSU, CTMS, Site Connect, CRM, supply chain, finance, ERP). Le consultant agira comme interface entre les parties prenantes métier, les équipes cliniques et les équipes data/ingénierie , afin de traduire les besoins métier en exigences data exploitables. Responsabilités principales Recueillir, analyser et documenter les besoins métier liés aux cas d’usage de données cliniques et opérationnelles. Traduire les besoins fonctionnels en spécifications claires à destination des équipes data engineering et analytics. Contribuer aux activités de qualité des données, traçabilité (data lineage) et gouvernance (définitions, dictionnaires de données, règles de validation). Animer des ateliers avec les parties prenantes cliniques et opérationnelles et garantir l’alignement entre les équipes. Contribuer à la gestion du backlog et à la planification des sprints via Jira ; documenter les processus dans Confluence . Compétences requises Solide expérience des standards de données de santé / cliniques (HL7, FHIR, ICD-10, LOINC, etc.). Bonne compréhension des plateformes et pipelines de données (Snowflake, dbt, IICS appréciés). Capacité à rédiger une documentation fonctionnelle claire , des user stories et des critères d’acceptation. Excellentes compétences en communication et expérience en environnement Agile . 3 à 6 ans ou plus d’expérience en tant que Business Analyst dans des contextes data, santé ou réglementaires .
Mission freelance
POT8904 - Un Data Engineer Spark/Scala sur Bordeaux
Almatek
Publiée le
Dataiku
6 mois
190-410 €
Bordeaux, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients Un Data Engineer Spark/Scala sur Bordeaux. Afin de renforcer l'équipe de développement, on recherche un Data Engineer expérimenté et connaissant les technos suivantes : Solutions utilisées : -Socle Big Data (OI1) : *Compute : Yarn *Storage: HDFS (avec chiffrement pour C3), Hive *Sécurité des données: Ranger, Ranger KMS, Ldap, Kerberos Frameworks/langage/outils utilisés : -MoveNAStoHDFS -Moteur d'ingestion v2 -Spark Scala -Dictionnaire de données -Socle Data Science : *DataiKu Automation Frameworks/langage/outils utilisés: -Spark 3 -HQL Localisation : Bordeaux + 2 à 3 jours de présence sur site requise
Offre d'emploi
Ingénieur systèmes - Aérospatial H/F
VIVERIS
Publiée le
40k-45k €
Massy, Île-de-France
Contexte de la mission : Notre client est un grand acteur du secteur aérospatial au niveau international, contribuant au développement de systèmes optroniques. Dans le cadre de l'un de ses programmes, nous recherchons un Ingénieur Systèmes H/F pour renforcer un projet de développement et d'intégration d'architectures optroniques destinées à des applications civiles et défense. Vos responsabilités : En tant qu'ingénieur systèmes, vous serez amenez à travailler sur le développement de produits à destination des domaines militaires & civils. - Élaborer, analyser et gérer les spécifications techniques ainsi que les exigences des systèmes optroniques ; - Conduire les processus de conception, développement et intégration de sous-ensembles électroniques complexes, en collaboration étroite avec les métiers optroniques ; - Concevoir et architecturer des solutions techniques innovantes répondant aux impératifs de performance, fiabilité et sécurité ; - Assurer le suivi des exigences, piloter la gestion documentaire et garantir la traçabilité des besoins clients/fournisseurs ; - Rédiger et structurer des livrables techniques clairs, cohérents et complets ; - Appliquer les normes et méthodologies en vigueur dans l'aéronautique et la défense.
Offre d'emploi
Data Base Administrator
HN SERVICES
Publiée le
Oracle
PL/SQL
1 an
28k-50k €
100-450 €
Paris, France
Ses principales activités • Contribuer à la conception de l’infrastructure en charge d’accueillir la BDD en lien avec le Référent IT Solution • Contribuer aux chiffrages des développements BDD à réaliser • Contribuer au maintien du référencement des BDD Hors production et à leur administration • Contribuer à la conception technique (MCD, MPD) de la solution à mettre en œuvre dans le respect des choix techniques en lien avec les autres intervenants du projet • Participer à la réalisation des scripts de création des modèles physiques • Contribuer à la gestion de configuration logicielle des composants de bases de données • Contribuer à l’optimisation/la vérification de l’adéquation des modèles et des requêtes • Intégrer les composants dans une version de mise en production
Mission freelance
Développeur Microsoft Dynamics 365 CRM On-Premise – Corbeil (91) + 2 jours télétravail
Freelance.com
Publiée le
.NET
Active Directory
API
1 an
520-700 €
Corbeil-Essonnes, Île-de-France
Nationalité : FR / UE obligatoire (contexte industriel, exigences sécurité) Dans le cadre d’un programme de déploiement Dynamics 365 CRM , le développeur accompagnera l’équipe projet sur les modules Customer Service, Request Management et Sales , ainsi que sur les chantiers d’intégration SI (archivage, signature électronique, échanges partenaires, interfaçages). Sous le pilotage du référent technique, il exécutera les travaux de développement et d’intégration pour enrichir et maintenir l’environnement CRM On-Premise. Rôle et responsabilités Développement & personnalisation Dynamics 365 : Développement de plugins C# / .NET Création de Custom Workflow Activities Développement de Web Resources (JavaScript / HTML / CSS) Utilisation de l’API Web Dynamics 365 Déploiement de solutions via XRM Toolbox Configuration & paramétrage : Gestion d’entités, champs, vues, formulaires et dashboards Business Rules / Workflows (Power Automate si connecté) Gestion des rôles et sécurité Intégration & données : Interfaces SI via API ou middleware (MuleSoft, Talend) Import/export de données (Data Import Wizard / Data Management) Scripts / flux SSIS / KingswaySoft si nécessaire Qualité, tests et documentation : Tests unitaires et fonctionnels Documentation technique Participation à la démarche DevOps (GitHub, CI/CD) Revues techniques et code avec le référent
Offre d'emploi
Ingénieur de production
Deodis
Publiée le
Linux
OS Windows
12 mois
41k-42k €
350-450 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Poste en télétravail partiel (2/3 jours par semaine) à Aix en Provence Au sein du SI Interne, vous intervenez dans une équipe de production en charge de l’industrialisation, de l’exploitation et de la supervision des applications métiers. Le poste combine des activités projets (build) et des activités de RUN (MCO / support N2/N3) dans un environnement technique riche et exigeant. Missions principales 1. Activités projets (BUILD) Participer à la conception et à la mise en œuvre des chaînes d’industrialisation et de déploiement applicatif. Intégrer de nouvelles applications dans le SI Interne, du cadrage technique jusqu’à la mise en production. Mettre en place et configurer les outillages de déploiement (XLDeploy) et d’ordonnancement (VTOM, Control-M). Contribuer à la définition des standards d’exploitation, des procédures et de la documentation associée. Travailler en étroite collaboration avec les équipes de développement, d’architecture et de sécurité pour garantir la bonne exploitabilité des solutions. 2. Activités RUN / MCO Assurer le bon fonctionnement quotidien des applications et des infrastructures associées (Windows Server, Linux, Openshift). Gérer les incidents de production (diagnostic, résolution, coordination des acteurs), avec une prise en charge de niveau 2/3. Assurer le suivi de la performance, de la disponibilité et de la capacité des plateformes, en s’appuyant sur les outils de supervision (Zabbix). Mettre en œuvre les plans d’actions de fiabilisation et d’optimisation (tuning, automatisation, industrialisation). Participer à l’astreinte et aux interventions planifiées en dehors des heures ouvrées (mises en production, opérations techniques). Environnement technique Le collaborateur sera amené à intervenir sur les technologies suivantes : Systèmes : Windows Server, Linux Base de données : Mysql / SQLserver / Oracle Containers / Cloud interne : Openshift. Déploiement / Industrialisation : XLD/XLR/Jenkins/Bitbucket (ou outillage similaire de déploiement continu). Supervision / Monitoring : Zabbix. Ordonnancement : VTOM, Control-M. Une bonne culture générale des environnements de production applicative et des outils DevOps est attendue.
Offre d'emploi
Technicien support H / F
CONSORT GROUP
Publiée le
Sud-Ouest, Cameroun
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Première agence régionale ouverte en 2001, l'agence Sud-Ouest représente les expertises du groupe en Occitanie, notamment à Toulouse et Castres. Forte de près de 150 collaborateurs, elle accompagne une trentaine de clients en s’appuyant sur deux Centres de Services et privilégie un accompagnement individualisé. Support Technique IT H/F C’est votre mission Vous êtes passionné·e par support technique , la résolution d’incidents et les environnements IT utilisateurs ? Ce poste est fait pour vous. En tant qu’ Support Technique IT , vous êtes responsable du support aux utilisateurs et résolution des incidents techniques et du maintien en condition opérationnelle de notre écosystème : Vos missions : Prendre en charge les incidents et demandes utilisateurs et escalade si nécessaire. Diagnostiquer et résoudre les incidents matériels, systèmes et applicatifs Intervenir à distance et/ou sur site sur les postes de travail et équipements IT Assurer le support sur les environnements Windows et les outils collaboratifs Gérer et suivre les tickets via un outil de ticketing (qualification, priorisation, résolution, clôture) Participer aux opérations de déploiement, de masterisation et de renouvellement de postes Appliquer les procédures IT et les règles de sécurité en vigueur Documenter les incidents récurrents et contribuer à l’amélioration continue du support Collaborer avec les équipes systèmes, réseaux et applicatives C’est votre parcours Vous avez au moins 2 à 5 ans d’expérience dans des environnements exigeants. Vous aimez comprendre les problèmes, aider les utilisateurs et résoudre efficacement les incidents sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Environnements & outils techniques : Environnements Windows 10 / 11 Active Directory Outils de ticketing Outils collaboratifs Microsoft 365 Notions réseau Outils de prise en main à distance La connaissance de SCCM / Intune / MECM est un plus C’est votre manière de faire équipe : Sens du service et excellent relationnel utilisateur Capacité d’analyse et de diagnostic Rigueur et organisation Autonomie et esprit d’initiative Esprit d’équipe et bonne communication Capacité à gérer les priorités et le stress C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Toulouse et périphéries Contrat : CDI Télétravail : Hybride Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Ingénieur Support et Exploitation Plateformes Data
VISIAN
Publiée le
Apache Spark
Kubernetes
1 an
40k-45k €
400-650 €
Paris, France
Descriptif du poste Notre équipe est responsable du maintien en condition opérationnelle des plateformes suivantes qui tournent sur IKS (Kubernetes IBM) et bientôt sur OpenShift : Apache Spark Apache Airflow/Astronomer Starburst (trino) Dans le cadre du renforcement de notre capacité de support sur la nouvelle offre "DATAHUB V2", nous recherchons des prestataires spécialisés dans l'exploitation et le support de ces plateformes. Missions La prestation visera à : Assurer le maintien en condition opérationnelle en production des plateformes (Airflow, Spark, Starburst) Intervenir dans la gestion des incidents, l'analyse des root causes et la résolution Participer à l'optimisation des traitements Spark sur Kubernetes (tuning, configuration, dimensionnement), à l'optimisation de l'orchestration Airflow, à la gestion des catalogues Starburst Accompagner les équipes métiers dans l'utilisation efficace et sécurisée des plateformes Contribuer à la documentation et à l'amélioration continue de l'écosystème d'exploitation
Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort
EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis
3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Mission freelance
Développeur / data engineer
AVALIANCE
Publiée le
Azure
CI/CD
Microsoft Fabric
2 ans
400-550 €
Belgique
Contexte de la mission Le data developer/engineer recherché rejoindra l’équipe Factory Data utilisant les technologies data Azure : Tâches principales • Développer les flux d’ingestion via Fabric Data Factory (et compréhension de Azure Data Factory) ; • Développer les flux de transformation de données via Fabric Factory Notebook ; • Optimiser les Queries des transformations, en particulier en prenant en compte les coûts Azure associés ; • Contribuer à la modélisation du Lake House ; • Établir le Design technique, implémentation de l’architecture médaillon (argent & or) dans Microsoft Fabric ; • Établir le plan de tests unitaires (automatisables) de la solution ; • Suivre/exécuter les tests unitaires ; • Participer à l’estimation de l’effort lié aux activités de développement lors du cadrage de la demande ; • Rédiger la technique de documentation ; • Contribuer à l’amélioration continue (guidelines de développement) ; • Contribuer à la maintenance & résolution des incidents (production).
Offre d'emploi
Expert infrastructure /réseau | Senior
OCTOGONE
Publiée le
LAN
WIFI
1 an
40k-66k €
400-650 €
Corbeil-Essonnes, Île-de-France
o Mettre en œuvre les solutions réseau corporate et industriel (LAN, SDWAN, Wifi, Firewall) et infrastructure (IT local des usines). o Garantir la performance, la scalabilité et la sécurité des infrastructures. o Résoudre les problèmes techniques complexes sur son domaine d'expertise pendant la phase projet. o Mise en place du monitoring des environnements pendant la phase projet. o Monitorerles environnements projet avant le transfert aux équipes de Run. o Documenter les procédures et supporter à l’exécution des processus de handover au Run (VABE)
Mission freelance
POT8930 - Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes
Almatek
Publiée le
JIRA
6 mois
340-400 €
Auvergne-Rhône-Alpes, France
Almatek recherche pour l'un de ses clients, Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes . Description Mission générale : Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz, au service des équipes de développement et DevSecOps. Le consultant contribue également à l’intégration d’usages IA dans les outils du développeur augmenté, ainsi qu’à l’accompagnement des équipes internes. Responsabilités principales 1. Développement & industrialisation Data / IA (activité dominante) Concevoir et développer des composants logiciels Python : scripts, services, APIs, traitements batch. Mettre en œuvre des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Développer et industrialiser des solutions Data et IA destinées aux équipes de développement Enedis. Contribuer à l’intégration des usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, analyse, observabilité). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations utiles au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation et qualité Structurer et maintenir la documentation technique. Contribuer aux référentiels de connaissances (Confluence). Participer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement et formation des équipes internes Appuyer les équipes dans la prise en main des solutions. Animer des sessions de formation ou démonstrations (ex : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité des équipes 5. Pilotage et coordination opérationnelle Suivre le backlog, collaborer avec les équipes projets / produits / outillage. Produire un reporting régulier d’avancement et d’activité. Compétences requises Techniques (obligatoires) Développement Python avancé. Connaissance des modèles et usages IA (machine learning, IA générative, observabilité IA). Traitement et préparation de données (ETL/ELT). Maîtrise Power BI et outils de dataviz. Usage outillé des chaînes DevOps / CI-CD (GitLab, pipelines). Environnement et outils attendus GitLab CI / Placide Confluence / JIRA Plateformes Data & IA GitHub Copilot (usage expert)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6010 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois