Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 285 résultats.
Freelance

Mission freelance
Administrateur systèmes et réseaux H/F

Publiée le

3 mois
350-450 €
Grenoble, Auvergne-Rhône-Alpes
Mission Freelance - Administrateur Systèmes & Réseaux (H/F) Cabinet de recrutement Grafton recherche, pour l'un de ses clients, un Administrateur Systèmes & Réseaux freelance afin d'accompagner ses équipes IT dans le cadre d'une mission stratégique. Contexte de la mission Notre client, acteur reconnu dans son secteur, souhaite renforcer son infrastructure informatique et garantir la disponibilité, la sécurité et la performance de ses systèmes et réseaux. Vos missions Administration et supervision des environnements systèmes (Windows/Linux). Gestion et optimisation des réseaux (LAN/WAN, VPN, firewall). Mise en place et suivi des politiques de sécurité. Support technique de niveau 2/3 auprès des équipes internes. Participation aux projets d'évolution et de migration d'infrastructures. Documentation et amélioration continue des procédures. Compétences recherchées Expertise en administration systèmes Windows et Linux. Solides connaissances en réseaux (Cisco, Fortinet, VPN, routage, switching). Expérience en virtualisation (VMware, Hyper-V) et cloud (Azure, AWS). Maîtrise des outils de supervision et de sauvegarde. Capacité à travailler en autonomie et à proposer des solutions fiables. Informations pratiques Localisation : Grenoble Démarrage : Dès que possible Durée : Reconductible TJM : Selon profil et expérience #LI-ST1
Freelance

Mission freelance
Lead MLOps Python - Spécialiste IA/RAG

Publiée le
IA
MLOps
Python

3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Freelance

Mission freelance
Développeur Angular H/F

Publiée le
Angular
CSS
HTML

6 mois
380-410 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Notre client souhaite renforcer ses équipes dédiées à une application. La mission vise à en assurer le développement, la maintenance et l'évolution technologique. Les attendus de la mission : • Donner son avis pour la conception et la création des maquettes d'ergonomie • Réaliser en code la structure des pages des interfaces graphiques • Etre le porteur de l’accessibilité dans la conception de l’interface • Assurer les performances de l'application • Assurer la portabilité et interopérabilité du site par la prise en compte des différents devices et navigateurs utilisés • Produire la documentation technique des développements réalisés • Connaissances sur les bonnes pratiques de développement Front End pour assurer la maintenabilité et l’évolutivité de l’application
Freelance
CDI

Offre d'emploi
Data Analysis – AMOA NIveau 3

Publiée le
Business Analyst

18 ans
40k-45k €
100-400 €
Strasbourg, Grand Est
Télétravail partiel
CONTEXTE : La demande porte sur une mission de contribution à des projet de BI en lien avec le Datalake . Ce rôle combine des compétences techniques en analyse de données avec une compréhension approfondie des processus métiers. La demande porte sur une mission de maitrise d’ouvrage spécialisée Data avec un profil Business Analyst orienté Data/BI. MISSIONS Data Analyst / Assistance à Maitrise d’ouvrage Le profil interviendra dans l’équipe offre métier ; rattaché au responsable d’équipe, il interviendra sur des projets orientés DATA impactant le Datalake. Ces projets spécifiques nécessitent : • Une bonne compréhension des besoins de reporting attendus par les utilisateurs métiers • Une bonne compréhension des processus métiers sous-jacents à l’origine de la production des flux de données Nature des tâches : • Compréhension des process métier et des besoins de reporting des interlocuteurs métiers (back office, chefs produit…) • Analyse des données existantes pour définir les modalités de production de ce reporting • Rédaction des spécifications à destination de l’équipe Data (composée de data engineers) pour la phase d’industrialisation : formalisation des données manipulées, des règles de gestion (filtres, relations, etc.), règles de gestion, définition métier des fonctions de collecte de données • Suivi et pilotage du projet jusqu’à la livraison au client Compétences requises : • Fonctionnelles et transversales o Capacité à traduire des besoins métiers en analyses concrètes o Esprit critique et rigueur dans l’interprétation des données o Excellentes compétences en communication et vulgarisation de données complexes o Autonomie, proactivité et capacité à travailler en équipes • Techniques et analytiques : o Utilisation des outils d’analyse de données (SQL, Notebooks Python, Excel, Power Query…) o Utilisation des outils de Visualisation de données (Power BI)
CDI
Freelance

Offre d'emploi
Ingénieur.e de production DevOps

Publiée le
CFT (Cross File Transfer)
Dynatrace
Kubernetes

3 ans
45k-65k €
480-550 €
Île-de-France, France
Télétravail partiel
En tant qu’ingénieur.e de production DevOps, vous jouerez un rôle clé dans le maintien en conditions opérationnelles (MCO), le déploiement, la supervision et l’évolution d’un parc applicatif hébergé majoritairement sur un cloud privé (Kubernetes) dans un contexte hybride Legacy / Cloud. Votre rôle RUN / MCO · Garantir la disponibilité et la performance des applications (tuning, supervision, capacité, etc.) · Gérer les incidents de production (CPU, Kubernetes, certificats expirés, indisponibilité applicative…) · Analyser les causes racines, résoudre les problèmes et participer aux cellules de crise · Intervenir lors d’astreintes (à partir du 6ᵉ mois) et lors des maintenances hors horaires ouvrés Projets / BUILD · Réaliser les déploiements applicatifs et les migrations (notamment Legacy vers Cloud) · Participer aux projets de résilience (multi-nœuds, équilibrage de charge, BGP, etc.) · Contribuer à la gestion des obsolescences techniques Automatisation & Outils · Automatiser les tâches récurrentes en lien avec les parties prenantes (Ansible, GitLab CI, Terraform…) · Participer à la création de jobs (CronJobs Kubernetes, Autosys, transferts CFT…) · Sécuriser et industrialiser les flux applicatifs et systèmes Supervision & Observabilité · Maintenir et améliorer les outils de monitoring (Dynatrace, Load DNS, Six Dig…) · Renforcer la supervision fonctionnelle basée sur le ressenti utilisateur (robots simulateurs)
Freelance

Mission freelance
Expert Cloud Azure

Publiée le
Automatisation
Azure
Cloud

12 mois
600-680 €
Saint-Denis, Île-de-France
Nous recherchons un Expert Cloud Azure confirmé pour accompagner la mise en œuvre et l’optimisation des infrastructures cloud. Vous serez intégré à l’équipe infrastructure/cloud et interviendrez en étroite collaboration avec les architectes, développeurs et responsables métiers. Mission : Architecte Cloud Azure Réaliser le provisionning des nouvelles ressources. Automatiser le provisionning . Optimiser les ressources cloud en termes de coûts, de performance et de résilience . Challenger les architectures applicatives et les fonctions azure utilisées. Implémenter les bonnes pratiques de sécurité et de gouvernance ( RBAC , Azure Policies, Azure Blueprints…). Automatiser les déploiements via des outils comme Terraform , ARM Templates ou Bicep Assurer une veille technologique constante sur l’écosystème Azure Assurer le MCO Azure Support N3
Freelance

Mission freelance
Developpeur Python Senior ( 10 ans ! )

Publiée le
Python

1 an
400-460 €
Paris, France
Le client est un leader mondial de l’assurance , engagé dans une transformation digitale majeure , avec des opérations dans plus de 80 pays . Services Fourniture de services IT standardisés à l’ensemble des entités opérationnelles, afin de favoriser l’alignement du portefeuille applicatif, l’excellence de service et l’efficacité des coûts ; Remplacement des plateformes de gestion de contenus legacy (Documentum, FileNet, NAS) par la plateforme Content Management eXperience (CMX) , développée par nous : une solution clé en main, en mode SaaS , offrant des API REST et une interface web , pleinement alignée avec les standards Groupe en matière d’architecture, de sécurité, de conformité et de résilience ; CMX est une propriété intellectuelle détenue à 100 % . L’enrichissement de ses capacités — ajout de fonctionnalités innovantes, de nouveaux services basés sur l’IA et accélération des migrations vers le cloud — est critique pour son succès et son évolution continue. Livrables Maintenance et évolution des outils cœur développés en Python , ainsi que le prototypage de nouveaux services à forte valeur ajoutée , en s’appuyant notamment sur l’ IA générative , les technologies sémantiques et les architectures cloud-native , afin de générer un impact métier à l’échelle du Groupe ; Collaboration étroite avec les parties prenantes métiers , les product managers et les équipes d’ingénierie pour transformer les besoins émergents en services robustes et à forte valeur ; Construction et évolution des outils cœur : Audit, stabilisation et refactoring de scripts Python existants ; Garantie d’un code propre, conforme aux standards PEP8 , avec une couverture complète de tests et une documentation appropriée ; Harmonisation de nouveaux modules, tels que la traduction de règles métiers exprimées en langage naturel vers des workflows techniques automatisés , ou encore la définition de stratégies d’archivage et de compression de fichiers ; Innovation et prototypage : Pilotage de sprints d’innovation courts et dynamiques pour explorer de nouveaux services orientés cas d’usage (tagging automatisé, recherche sémantique, contrôles de qualité de contenus) ; Conception de preuves de concept (POC) , cadrage et challenge des cas d’usage et besoins spécifiques via du développement rapide en environnement laboratoire ; Évaluation de la faisabilité et proposition de roadmaps de mise en production ; Réalisation de revues de code , partage des bonnes pratiques et mentorat des équipes sur le Test-Driven Development (TDD) , le CI/CD et les principes de clean architecture ; Contribution aux chaînes DevOps : CI/CD, infrastructure as code (Terraform, CloudFormation) et déploiements automatisés. Expertise Expertise avancée en développement Python , appliquée à des applications orientées données ou gestion de contenus ( 10 ans d’expérience ) ; Langages et outils principaux : Python (avancé), Git, Bash, Java, JavaScript (React / Vue) ; Données & IA : Pandas, expressions régulières, parsing JSON/XML, prompt engineering ; Technologies data avancées : NoSQL (MongoDB, MarkLogic), RDF/SPARQL, graphes ; Cloud & DevOps : AWS (S3, Lambda), CI/CD (Jenkins, GitLab CI), Terraform, OpenShift, Kubernetes, Artifactory, OpenLDAP ; Tests & Qualité : Pytest, frameworks BDD (Behave / Cucumber), revues de code, Selenium, outils d’analyse de sécurité et de qualité (SonarQube, Snyk).
Freelance
CDI

Offre d'emploi
Expert FONCTIONNEL Cyber & Protection des Données – IA / GenAI / Azure (Niveau 3)

Publiée le
Azure
Azure AI Foundry
Gestion des risques

3 ans
94120, Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un expert cybersécurité fonctionnel spécialisé IA / GenAI pour renforcer une équipe sécurité dédiée aux usages avancés de l’IA au sein d’un grand groupe international du secteur financier. 🎯 Vos responsabilités Cadrage & gouvernance sécurité IA / GenAI Participation aux comités projets IA Définition des exigences sécurité (prompt injection, poisoning, fuite de données, abus de privilèges…) Priorisation des projets IA à fort risque cyber Accompagnement des équipes tech & métiers Interaction directe avec architectes, data scientists, devs, product owners Contribution aux décisions d’architecture sur l’écosystème Microsoft : Azure AI, Cognitive Services, Azure ML, M365 / Copilot, Fabric, Power Platform Prise en compte des intégrations data (ex. plateformes cloud/data type Snowflake) Contribution aux documents & référentiels Dossiers de sécurité GenAI Analyses de risques LLM Blueprints & modèles d’architecture sécurité Exigences / spécifications sécurité (DAT, DAH, HLD/LLD, policies…) Playbooks & guidelines LLM / GenAI Reporting, KPIs, plans de remédiation
Freelance
CDI

Offre d'emploi
Architecte DevOps (H/F)

Publiée le
Ansible
Azure DevOps
Github

1 an
53k-64k €
550-650 €
Île-de-France, France
Télétravail partiel
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un Architecte Solution DevOps (H/F) Contexte de la prestation : Dans la cadre de la transformation Digitale du Groupe, nous avons besoin d’un architecte Solution DevOps sur le périmètre Automation. · Sous la responsabilité du département Architecture d’Infrastructure au sein de la Direction des opérations, l’Architecte DevOps est intégré à l’équipe Automation constituée d’architectes/ingénieur techniques. · Nous recherchons un Architecte DevOps pour renforcer notre équipe et améliorer nos pratiques DevOps. Le candidat collaborera avec les équipes de développement et d'exploitation pour automatiser les processus, mettre en place des pipelines CI/CD, gérer l'infrastructure on prem/cloud et assurer la fiabilité de nos applications. Description de la prestation : Intégré dans l’équipe Architecture Opérations, la ressource aura en charge : · Définir, concevoir les architectures DevOps pour les développeurs et en particulier pour l’Infra As Code. · Concevoir, développer et maintenir des pipelines CI/CD pour automatiser le déploiement, les tests et la livraison des applications. · Gérer l'infrastructure cloud sur Azure et On premise à l'aide de Terraform et Ansible. · Collaborer avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de vie du développement des applications. · Contribuer à l'élaboration et à l'amélioration des processus et des outils DevOps. · Documenter et partager les connaissances avec l’ensemble des Architectes. · Rédiger les Normes et Standards · Compétences requises : · Expérience solide avec Azure Cloud et ses services associés. · Maîtrise de Terraform et Ansible pour l'infrastructure-as-code. · Compréhension approfondie des concepts DevOps et de l'agilité. · Pratique avérée dans la création de pipelines CI/CD avec Azure DevOps ou des outils similaires (GitHub). · Maitrise du langage YAML pour développement de playbooks ansible et configuration des pipelines. · Compétences en Scripting avec PowerShell ou Bash. · Capacité à résoudre efficacement les problèmes de manière autonome. · Travail d'équipe. · Bonne maitrise de l’Anglais Environnements techniques : · Github · Ansible · Terraform · AzureDevOps · ServiceNow
Freelance

Mission freelance
Ingénieur MLOps – Production de la chaîne d’intégration des modèles de Machine Learning

Publiée le
Apache Airflow
Docker
MLOps

3 ans
100-520 €
Lille, Hauts-de-France
Télétravail partiel
Livrable attendu Pipelines MLOps automatisés (CI/CD) pour entraînement, validation et déploiement. Infrastructure cloud (IaC) opérationnelle. Système de monitoring et alerting pour modèles ML en production. Documentation technique et bonnes pratiques MLOps. Compétences techniques (Impératives) Frameworks MLOps : ZenML, MLflow, Vertex AI ou équivalent. Python : Confirmé. Orchestration/Pipelines : Airflow, Kubeflow, Dagster ou Prefect. Conteneurisation : Docker, Kubernetes. CI/CD & IaC : Git/GitLab/GitHub, Terraform/Ansible. Data Quality/Versioning : Great Expectations, Deeque, Feast, MLflow Model Registry. Cloud : Maîtrise d’un cloud majeur (GCP fortement recommandé). Connaissances linguistiques Français : Courant (Impératif). Anglais : Professionnel (Impératif).
Freelance

Mission freelance
RESPONSABLE LOGISTQIUE

Publiée le
Logistique

19 mois
430-460 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
La prestation consiste à réaliser une assistance technique afin d’intervenir sur un projet de Management des équipes logistiques. Plus précisément les activités concernées sont les suivantes (liste non exhaustive) : Organisation & pilotage des opérations logistiques • Planifier et organiser les activités logistiques : approvisionnement, réception, stockage, gestion des stocks, expédition. • Définir les ressources — humaines, matérielles, budgétaires — nécessaires pour atteindre les objectifs logistiques dans le respect des contraintes : délais, qualité, coûts, sécurité. • Superviser la mise en place et le bon fonctionnement des moyens logistiques (magasins, zones de stockage, flux internes, matériels de manutention, parc engins, etc.). Management d’équipe • Encadrer, superviser et animer une équipe de chefs d’atelier / superviseurs logistiques, magasiniers, caristes, préparateurs, etc. • Assurer le développement des compétences, la montée en autonomie, la formation des collaborateurs, ainsi que le respect des règles internes, de sécurité et des normes. • Gérer les plannings, les présences, l’affectation des ressources en fonction de la charge de travail et des priorités. Suivi des indicateurs & amélioration continue • Mettre en place, suivre et analyser les indicateurs de performance logistique : taux de service, niveaux de stock, délais, coûts, qualité, taux de rebuts, etc. • Identifier les écarts, analyser les causes racines, proposer et piloter des actions correctives ou d’optimisation (flux, stockage, méthodes, processus, maintenance, sécurité). • Participer aux projets d’amélioration continue / lean / rationalisation – en collaboration avec les autres services (production, qualité, méthodes, maintenance …).
CDI

Offre d'emploi
Technicien support H/F

Publiée le

Lyon, Auvergne-Rhône-Alpes
DCS renforce ses équipes au sein de son centre de services lyonnais. Nous recherchons un(e) technicien(ne) support helpdesk qui sera le premier point de contact des utilisateurs, afin de diagnostiquer, résoudre et escalader les incidents techniques tout en garantissant une expérience utilisateur fluide et professionnelle. Pour ceci, vos missions sont les suivantes : - Réceptionner et traiter les demandes utilisateurs (téléphone, mail, ticketing) - Identifier, diagnostiquer et résoudre les incidents de niveau 1 et 2 - Installer et configurer postes de travail, logiciels et périphériques - Assurer la gestion des accès (Active Directory, Office 365, VPN...) - Documenter les procédures et contribuer à l'amélioration continue du support Vous êtes diplômé(e) d'une formation en informatique (Bac+2 minimum) ou disposez d'une expérience équivalente, et avez idéalement une première expérience en support helpdesk. Vous maîtrisez Windows, Office 365 et Active Directory, avez de bonnes notions réseaux, et vous êtes reconnu(e) pour votre sens du service, votre patience et votre pédagogie. Pourquoi nous rejoindre ? - Opportunités d'évolution : parcours de carrière personnalisé, mobilité interne. - Entreprise à taille humaine, esprit d'équipe et bienveillance : entraide, culture du feedback, management de proximité. - Missions variées et innovantes : projets en lien avec les dernières tendances tech. - Télétravail : home office (flexibilité) - Rémunération attractive : paniers repas 6,30EUR, prime ancienneté, prime de vacances, CE, participation, prime de cooptation, - Un accélérateur de carrière et formation continue : chez nous, chaque collaborateur bénéficie d'un accompagnement personnalisé pour évoluer. - Une entreprise engagée : nous mettons l'accent sur le bien-être au travail, la diversité, l'inclusion et la responsabilité sociétale (Top 3 performance RSE / Dév.Durable - ECOVADIS, Certification ISO27001), réduction de notre empreinte carbone, partenariats avec des associations). Notre processus de recrutement : en 4 étapes ! Tout simplement. 1. Dans un premier temps, vous échangerez avec l'une d'entre nous par téléphone : Séverine, Ikram, Marlène ou Denis. 2. Puis, nous aurons le plaisir d'échanger en visio. 3. Pour finir, discutez métier avec l'un de nos managers opérationnels 4. Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau ! GLPI Windows 10 Wndows 11 AD
CDI

Offre d'emploi
Data Architecte Databricks

Publiée le
Databricks

65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Manager de transition expert Sécurité dans le BTP

Publiée le
Gestion de projet

3 mois
770-800 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Manager de transition QSE expert BTP pour un acteur reconnu du BTP, en région Auvergne-Rhône-Alpes, spécialisée dans les interventions à forte valeur ajoutée. Mission de 3 mois renouvelables. Vos missions : - Décliner l'objectif zéro accident : actions terrain, formations (habilitations électriques NF C 18-510), ressources EPI/équipements ; consignation, visites d'inspection (internes/client). - Sécuriser pour Maîtriser les opérations : plans de prévention, analyse des risques pré-intervention, gestion des sous-traitants ; conformité des équipements (R.4323-58 à 90). - Évaluer et améliorer la performance : indicateurs QSE, revues de direction, cycle PDCA ; coupler à ISO 9001/14001 pour intégrer la QSE. - Anticiper et gérer les crises : plans d'urgence, coordination des secours, sécurisation des zones, REX et ajustements modes opératoires ; expérience en management de crise requise. Votre profil : - Vous êtes disponible pour un démarrage immédiat - Vous avez une formation QHSE avec forte expérience BTP (>10 ans terrain : audits de chantiers, formations SST, gestion des crises et accidents). - Vous maîtrisez parfaitement les référentiels ISO 9001/14001/45001 (SST, DUER, PDCA, KPI…) et NF C 18-510 (habilitations électriques). - Vous avez une appétence pour la co activité, la gestion de la sous-traitance, le respect de cahiers des charges exigeants des grands comptes. - Vous êtes un (e) Leader opérationnel, vous faites preuve de sang-froid, et d'aisance en communication (équipes, dirigeants & environnement), - Vous êtes à l'aise pour gérer les KPI QSE - Vous êtes rigoureux , pro actif , pédagogue - Vous aimez aller sur les chantiers Ce que nous offrons : - Un Poste terrain & bureau, à fort impact opérationnel. - Une entreprise dynamique et structurée de province avec une présence à internationale, implantée en Auvergne-Rhône-Alpes
Freelance

Mission freelance
MOE/Analyste/Concepteur mainframe (Le Mans - 2j de TT/semaine)

Publiée le
COBOL
IBM Db2

1 an
350-550 €
Le Mans, Pays de la Loire
Télétravail partiel
Nous recherchons un MOE / Analyste / Concepteur Mainframe pour intervenir sur des activités de run (MCO) et/ou sur des projets d’évolution applicative . La mission comprend la participation aux différentes phases du cycle de vie des applications : Analyse des besoins et rédaction des spécifications techniques Conception des solutions Développements Mainframe Réalisation des tests unitaires Préparation et réalisation des livraisons Une présence sur site au Mans au minimum 3 jours par semaine est requise.
CDI
Freelance

Offre d'emploi
Data Engineer - SPARK/SCALA

Publiée le
Apache Airflow
Apache Spark
PySpark

12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
1285 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous