L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 812 résultats.
Mission freelance
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier
WorldWide People
Publiée le
Microsoft SSIS
6 mois
320-400 €
Montpellier, Occitanie
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS. Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS.
Offre d'emploi
Analyste Développeur Senior C# / SQL (H/F)
CITECH
Publiée le
C#
Microsoft SQL Server
6 mois
40k-60k €
350-400 €
Strasbourg, Grand Est
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Analyste Développeur Senior C# / SQL (H/F). 🚀 🚡 Notre client est un acteur reconnu du secteur de la mutualité et de l’assurance santé . Dans un contexte réglementé et à forts enjeux métiers, il renforce ses équipes notamment pour travailler sur le développement d’outils stratégiques de pilotage et de gestion de projet.. 🚀 Votre mission Au sein d’une équipe dynamique composée de chefs de projets et d’analystes développeurs, vous interviendrez sur : L’analyse des demandes d’évolutions et des tickets incidents Le développement à partir de dossiers de conception technique Les corrections et la maintenance évolutive des applications La réalisation d’analyses techniques et de revues de code L’identification et la mise en œuvre d’optimisations de performance
Offre d'emploi
Ingénieur Cybersécurité - F/H
AVANISTA
Publiée le
Guyancourt, Île-de-France
Depuis 2012, nous mettons notre expertise au service des secteurs de l’IT et l’Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d’une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Ingénieur Cybersécurité au sein de nos équipes pour l’un de nos clients dans le secteur bancaire. Vos missions ? Pilotage des audits réglementaires et tests d'intrusion (LPM, PCI-DSS) Réalisation des analyses de risques Gestion des vulnérabilités : détection, suivi, remédiation (pentest, scan, veille, CI/CD) Réalisation de contre-audits et vérification des corrections Coordination des prestataires externes (auditeurs, pentesteurs) Élaboration de tableaux de bord et reporting (PowerBI, Excel) Réponse aux incidents de sécurité et coordination des actions de remédiation Veille cybersécurité et suivi des menaces Gestion des alertes de sécurité (DLP, contrôles d’intégrité) Participation aux dispositifs de gestion de crise (CCO) Support aux équipes métiers sur les sujets de sécurité
Mission freelance
DevOps AI Construire des application
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Nanterre, Île-de-France
Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé TJM: Selon profil Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentationDescription détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps
Mission freelance
BA / Analyste Support IT Monétique
VISIAN
Publiée le
Administration linux
API
ELK
1 an
400-710 €
Île-de-France, France
🏢 Contexte de la mission Dans le cadre du renforcement d’une équipe dédiée à la supervision et au support IT monétique , vous interviendrez sur un périmètre stratégique couvrant l’ensemble de la chaîne monétique et des services d’acceptation. L’environnement inclut notamment : Référentiels monétiques Autorisation / acceptation des paiements Opérations et rapprochements bancaires Services digitaux innovants Vous serez au cœur des échanges entre équipes techniques, métiers et partenaires (banques, commerçants, PSP, etc.). 🎯 Vos missions principales Assurer le support fonctionnel et technique de niveau 2 sur les incidents complexes Superviser les flux monétiques critiques et les KPI associés Suivre et valider les mises en production (correctifs, évolutions) Piloter les migrations techniques et fonctionnelles Gérer les changements opérationnels (coordination, communication) Participer à la veille fonctionnelle et réglementaire Animer ou contribuer aux comités techniques et métiers Contribuer à l’amélioration continue des services (environnement SaaS / PaaS)
Mission freelance
Consultant Active Directory - Azure AD
PROPULSE IT
Publiée le
Azure
24 mois
450-900 €
Paris, France
PROPULSE IT recherche un consultant Active Directory avec des compétences en Management pour une mission chez un de nos clients : MCO de la partie Active Directory - Management des ressources nécessaires ou participation à la résolution des incidents et demandes liés à la gestion des de Niveau 3 liés aux droits d'accès. - Participation à la MCO des outils d'administration des solutions d'Active Directory et Azure AD. Management - Reporting et suivi des activités Domain Management (Connaissance d'outils comme PowerBI est un plus). - Manage une équipe de 8 personnes. - Participe et représente son équipe aux réunions de Service Digital Opérations - Anime les réunions de communication / coordination avec les IT régionaux présents dans le monde entier. Gestion des projets - Coordonne la gestion des projets de l'équipe : o Participe activement au projet de mise en place d'un outil de CIAM et IAM o Planification en lien avec les chefs de projet o Gestion de la ressource de l'équipe des investissements nécessaires Attendus comportementaux - Esprit d'équipe - partage de connaissances - leadership - Adaptabilité aux changements - Anglais professionnel (Animation / participation / communication fréquente avec les IT régionales). Equivalent Niveau B2 (Classification Européenne).
Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy
Almatek
Publiée le
SQL
6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Mission freelance
Mission Freelance – Consultant Test & Validation / Non‑Régression & Patching (AFIS – Fingerprint)
Tenth Revolution Group
Publiée le
Bash
Linux
OS Windows
7 mois
Île-de-France, France
Dans le cadre d’un renfort en assistance technique au sein d’un acteur majeur des solutions d’identité / biométrie, nous recherchons un(e) Consultant(e) Test & Validation pour intervenir sur un environnement AFIS (Automated Fingerprint Identification System) , avec une forte orientation support, validation de correctifs et qualité . Contexte & objectifs Vous intervenez sur des applications AFIS utilisées pour l’ identification par empreintes (tenprint, latentes, paumes…), où la qualité, la traçabilité et la sécurité des mises à jour sont essentielles. Livrable attendu : reporting mensuel ( OTD mensuel ). Missions principales Réaliser des campagnes de tests de non‑régression . Exécuter des tests de patches (fonctionnels & sécurité) et vérifier l’absence de régressions. Mener des tests fonctionnels et participer aux tests liés aux vulnérabilités . Valider des procédures et des installations (modes opératoires, checklists, runbooks). Accompagner les clients/utilisateurs sur l’application des patches et la vérification post‑déploiement. Produire le reporting mensuel (suivi qualité/délais, indicateurs, synthèse des actions). Compétences techniques attendues OS (Linux/Windows) : confirmé (diagnostic, logs, services, installation). Scripting : confirmé (Bash / PowerShell / Python… pour automatisation, checks, outillage). Bases de données / SQL : niveau junior (requêtes simples, vérifications, troubleshooting). Java : niveau junior (souhaitable).
Mission freelance
Consultant technique SharePoint confirmé
MLMCONSEIL
Publiée le
SharePoint
6 mois
140-480 €
Paris, France
Mission de migration de plateformes SharePoint 2016 vers une nouvelle infrastructure on-premise sécurisée. Intervention en appui technique : déploiement en environnements dev/test, scripting PowerShell et rédaction de procédures d’exploitation. Participation au pilotage : coordination des acteurs, suivi des incidents, comités et reporting via tableaux de bord. Expertise sur SharePoint, SQL Server, Windows Server et PowerShell. . . . . . . . . . . .
Offre d'emploi
Data Scientist (NLP / LLM / Agentique) — Projet IA Télécom
TOP TECH
Publiée le
Agent IA
Large Language Model (LLM)
40k-50k €
France
Dans le cadre d’un programme stratégique d’industrialisation d’une solution IA innovante, un grand acteur des télécommunications renforce ses équipes Data. Suite à la mise en production d’une solution de relation client basée sur de l’IA Speech-to-Speech , le client déploie cette technologie sur plusieurs canaux digitaux à grande échelle. 👉 Nous recherchons plusieurs Data Scientists pour accompagner cette montée en charge. 🎯 Vos missions Vous interviendrez sur deux axes clés : 🔍 1. Monitoring & amélioration continue Suivi des performances des modèles en production Analyse des dérives et optimisation continue Mise en place d’indicateurs de qualité et de fiabilité 🧪 2. TestOps & industrialisation IA Conception d’une Test Case Factory automatisée Génération de scénarios de tests via des approches Data Science Validation des nouvelles versions des modèles IA Mise en place de stratégies de tests robustes pour garantir la qualité en production ✔️ Expérience requise : Expérience en NLP / LLM / Agentique (obligatoire pour profils expérimentés) Bonne compréhension des systèmes IA en production Expérience sur des problématiques liées au traitement du texte 🛠️ Compétences techniques Data Science (Python, ML, DL) NLP (Natural Language Processing) LLM (Large Language Models) Mise en production & monitoring de modèles Expérience en automatisation de tests (idéalement TestOps IA) 📍 Contexte Secteur : Télécommunications Projet : Déploiement à grande échelle d’une solution IA conversationnelle Environnement : Innovant, orienté industrialisation et passage à l’échelle
Mission freelance
Expert data DataCloud (DataBricks) Nantes /st
WorldWide People
Publiée le
Databricks
12 mois
Nantes, Pays de la Loire
Expert data DataCloud (DataBricks) Nantes •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine Ce poste est ouvert à la pre-embauche DataCloud (DataBricks) Prestation d'Expert Data Tâches : •Assister à la rédaction des dossiers de conception, à la relecture et validation des spécifications techniques émises par les équipes de réalisation •Apporter une expertise technique/un support technique (résolution de problèmes en production, mise en œuvre de nouvelles fonctionnalités, étude de DFB, etc.) : •Apporter de l’expertise sur les projets en cours de développement •Apporter de l’expertise sur des problématiques en production •Proposition et test de solutions, mise en œuvre de solutions de contournements, dossier de préconisations, etc… •Support assuré auprès des équipes projet, de l’exploitant, de l’AMOA, etc. •Rapports d’études •Apporter des améliorations dans le code, les tests, les configurations •Auditer le code et préconiser des améliorations •Apporter de l’expertise/support lors de migrations de données •Optimiser des traitements, des bases de données •Gérer les patchs éditeurs •Assister (expertise) les développeurs et intervenir en support N1/N2, notamment en réalisant les travaux les plus complexes •Apporter son expertise et son conseil à la définition et mise à jour de l’architecture Applicative •Participer au dimensionnement d’une architecture •Participer au choix d’une solution •Apporter des connaissances sur l’état de l’art du marché •Etre force de proposition pour la création ou l’évolution de plateformes mutualisées en fonction de l’évolution du marché et des nouveaux besoins •Proposer, construire, alimenter et diffuser les outils de capitalisation, d’industrialisation et de mutualisation tels que les guides de bonnes pratiques, des bilans de projets, des retours d’expérience •Participer au développement/à la formation des compétences des collaborateurs pour améliorer les connaissances et le savoir- faire collectifs •Participer à l’homologation et l’accessibilité technique •Rédiger ou mettre à jour la documentation utilisateur, les supports de formation •Concevoir des actions et des supports de formation •Préparer et réaliser les sessions de formation •Préparer la communication ou communiquer vers les contacts Métiers des évolutions Compétences : •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine
Offre d'emploi
Responsable RUN/Data
OBJECTWARE
Publiée le
Master Data Management (MDM)
3 ans
40k-78k €
400-590 €
Île-de-France, France
Objectif de la mission Profil technico fonctionnel : Suivi du RUN et gestion des incidents Conception d'achitecture applicative Conception technique Maitrise des batchs Stratégie de test et test fonctionnel Garantie du bon fonctionnement des applications, leur maintenabilité et leur évolutivité Réponse et analyse aux incidents Env technique : - APIs Rest et Web Services SOAP - Applications web en java - Base de données Oracle - XML - Ordonnanceur control-M - ETL Informatica - Git - Outils : service now, JIRA, … - Un plus : MDM EBX Tibco et MDM Semarchy
Mission freelance
DBA PostgreSQL / MySQL
Les Filles et les Garçons de la Tech
Publiée le
Administration linux
Ansible
Elasticsearch
12 mois
260-460 €
Île-de-France, France
Intégré(e) à la Direction des Systèmes d'Information (DSI), vous rejoignez une équipe de plus de 10 Administrateurs de Bases de Données (DBA) dédiée à la mise en œuvre de projets de grande envergure. Vos missions principales s'articulent autour de l'administration, de l'optimisation et du support : Administration opérationnelle en production de bases de données clientes importantes sous PostgreSQL et MySQL. Conseil et accompagnement des services d'ingénierie pour la modélisation des projets et la conception. Support de niveau 3 (Expertise) en étroite collaboration avec les développeurs et les techniciens d'exploitation. Maintien en Conditions Opérationnelles (MCO) et gestion du Plan de Reprise d'Activité (PRA) pour assurer la continuité de service. Configuration, optimisation, patching et montées de version (Upgrade) des systèmes. Définition et gestion des stratégies de sauvegarde , tests de restauration (PITR), réplication, mise en place de clusters et gestion de la haute disponibilité (PG/Patroni, MySQL GroupReplication, failover). Outillage et automatisation des tâches d'administration via Ansible et Git. Étude du déploiement des moteurs SGBD sur des solutions Cloud et participation aux projets de sécurité et d'audit
Mission freelance
Data engineer Google cloud platform (GCP)
CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery
6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Mission freelance
PROXY PRODUCT OWNER DATA
Codezys
Publiée le
ERP
Finance
P2P
6 mois
Courbevoie, Île-de-France
Contexte de la mission : Intégrée au Group Data Office dans le cadre de la transformation Finance, cette mission sert d’interface entre Finance, IT et équipes Data. Le Proxy Product Owner Data accompagne l’équipe Corporate Finance dans les programmes de transformation tels que : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus Finance Elle vise à : Identifier, structurer et prioriser les initiatives data Finance Aligner avec les standards et architectures du Group Data Office Piloter et livrer efficacement ces initiatives Le rôle, transverse et collaboratif, relie besoins métiers, capacités techniques data et frameworks de delivery, tout en assurant gouvernance et conformité aux standards du groupe. Objectifs et livrables : 1. Identification et structuration des projets data Finance : Identifier les initiatives de transformation avec impact data Évaluer leur valeur business et faisabilité Assurer leur alignement avec les priorités du Group Data Office Livrables : portefeuille d’initiatives, framework de qualification, analyse d’impact 2. Formalisation des besoins et conception des solutions : Traduire besoins Finance en exigences data et techniques Aligner avec les patterns d’architecture du groupe Livrables : documentation des besoins, spécifications, flux et processus, validation des solutions 3. Expertise Finance et support : Fournir une expertise sur les processus Corporate Finance Accompagner les initiatives P2P, O2C, automatisation Livrables : cartographie, recommandations d’amélioration 4. Automatisation des processus : Soutenir les cas d’usage automatisation Garantir la qualité et l’intégration des données Livrables : backlog, spécifications, pipelines et intégrations 5. Coordination du delivery : Coordonner équipes Finance, IT, Data Office Suivre l’avancement, identifier blocages Livrables : tableaux de bord, rapports, gestion des risques 6. Gouvernance, standards et bonnes pratiques : Respecter standards du Data Office Appliquer patterns d’architecture et contrôles qualité Livrables : conformité, documentation, règles qualité 7. Communication et gestion des parties prenantes : Être référent data du programme Finance Transformation Assurer communication et coordination Faciliter la prise de décision Livrables : rapports d’avancement, supports, présentations
Offre d'emploi
Expert.e Linux
Atlanse
Publiée le
Ansible
Bash
Linux
3 ans
55k-65k €
400-550 €
Île-de-France, France
Vous intervenez en tant qu’expert.e Linux dans des environnements de production exigeants, marqués par es enjeux de disponibilité, de performance et de sécurisation des infrastructures. Missions Administration et maintien en conditions opérationnelles · Mettre en œuvre et maintenir les infrastructures Linux · Administrer les environnements et garantir leur disponibilité · Gérer la haute disponibilité des plateformes · Assurer un support de niveau 3 (astreintes possibles selon contexte) Industrialisation, automatisation et performance · Automatiser les tâches et processus (scripting, outils d'automatisation) · Participer à la standardisation et à l'industrialisation des plateformes · Contribuer à l'optimisation des performances des serveurs Evolution des environnements et documentation · Qualifier les évolutions technologiques (montées de version, patchs...) · Rédiger la documentation technique (architecture, exploitation...)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- Mission à 600 km de chez moi - Frais de double résidence
- Réforme de l’assiette sociale
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Recherche par mot clef KO ...
- 🚀 À la recherche d’une opportunité en IT – Disponible immédiatement
3812 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois