Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 008 résultats.
Freelance

Mission freelance
Architecte Solution Cloud GCP

PARTENOR
Publiée le
API
Google Cloud Platform (GCP)
oauth

1 an
400-870 €
Paris, France

Afin de renforcer nos équipes chez l'un de nos clients grands compte, nous recherchons un(e) Architecte technique Solution F/H. Missions : - Définir l’architecture technique, la documenter et mettre en œuvre les composants nécessaires à la construction et l’évolution des produits - En s’appuyant sur le catalogue des patterns d’entreprise, s’assurer que les architectures proposées répondent aux exigences suivantes : - Conformité avec les guidelines et directives d’architecture de l’entreprise - Standardisation et respect de la stack technologique - Sécurité (selon les préconisations DIRS) - Scalabilité et robustesse (à leur juste niveau) - Coût et d’optimisation de coût Durant les phases de développement MVP et releases, vous serez en support aux projets sur la conception et la résolution des problèmes techniques. Environnement technique : OnPremise et Cloud GCP Solutions de stockage de données (SGBD, NoSQL, fichiers, Big data) Calcul (VM, containers, orchestration, serverless) Interfaçages (API, events, streaming) Authentification (OIDC/OAuth) CI/CD Intégration de progiciels Connaissance d’un language de développement Maitrise de la méthodologie Agile et SAFe Maitrise de l’anglais

Freelance

Mission freelance
Consultant SRE

ESENCA
Publiée le
CI/CD
Datadog
Github

3 mois
400-450 €
Lille, Hauts-de-France

Votre rôle couvrira à la fois des activités opérationnelles (assurer le run, automatiser les infrastructures, investiguer et résoudre les anomalies complexes) et des activités d’accompagnement (diffusion des pratiques SRE, coaching, transfert de compétences, participation à la communauté Ops cross platform Excellence Opérationnelle / SRE). Vous apporterez un regard critique et pragmatique, en challengeant les pratiques existantes et en proposant des solutions simples et efficaces, adaptées aux besoins des équipes et aux enjeux de croissance de la plateforme. Une bonne connaissance du développement sera essentielle pour collaborer efficacement avec les équipes produit, contribuer à la mise en place de SLO et d’Error Budgets, et soutenir la réduction du toil. MISSIONS PRINCIPALES : - Automatiser et industrialiser la mise en place et l’administration des infrastructures. - Accompagner la croissance de l’utilisation des produits et optimiser leur performance et leur résilience. - Faire évoluer et documenter la chaîne de tooling (déploiement, supervision, observabilité, développement). - Contribuer aux projets et initiatives transverses de la communauté Ops/SRE avec une approche orientée résultats. - Optimiser les coûts des infrastructures tout en garantissant la disponibilité et la fiabilité des services. - Analyser et améliorer en continu l’infrastructure (monitoring, performance, optimisation). - Investiguer et corriger les anomalies techniques complexes (root cause analysis). - Accompagner les équipes de développement et opérationnelles dans l’adoption, la mise en œuvre et l’animation des pratiques SRE (SLO, Error Budget, post-mortems, réduction du toil). - Participer activement à la vie de la communauté Ops cross platform en partageant les bonnes pratiques et en renforçant l’autonomie des différents acteurs.

Freelance

Mission freelance
Développeur / Data Engineer Observabilité

Signe +
Publiée le
Python

6 mois
540-630 €
Levallois-Perret, Île-de-France

Contexte Nous recherchons un Développeur Senior possédant une double expertise en Développement Backend et en Ingénierie des Données, pour intégrer une équipe dédiée à l’Observabilité. Le consultant interviendra dans un environnement Azure et DevOps, avec un fort enjeu de fiabilité, performance et gouvernance des données. Localisation et modalités Lieu : Levallois-Perret Hybridation : 2 à 3 jours sur site / semaine Durée : engagement long terme (jusqu’à 3 ans) Démarrage : 13/10/2025 Fin prévue : 12/10/2026 Seniorité : +8 ans d’expérience minimum Missions et Responsabilités Développement Backend Concevoir, développer et maintenir des services backend (Python, PySpark). Exposer des APIs et intégrations orientées Observabilité. Data Engineering Construire et orchestrer des pipelines ELT/ETL robustes (Airflow, Spark, Python). Assurer la qualité, le lineage, la sécurité et l’observabilité des données. Stockage & Visualisation Gérer les données via PostgreSQL, Azure Blob Storage et ADLS. Créer des dashboards avancés avec Grafana pour la supervision des performances. Collaboration & Méthodologie Travailler avec les équipes de développement et le Product Owner (Agile/Scrum). Intégrer les pratiques d’observabilité dans les cycles de développement pour améliorer résilience et visibilité. Compétences techniques requises Langages : Python, PySpark, SQL, NoSQL (ElasticSearch). Data & orchestration : Spark, Airflow, PostgreSQL, ADLS, Azure Blob Storage. Observabilité : ELK Stack, Logstash, Azure Log Analytics (KQL), Grafana. Cloud & Infrastructure : Azure (AKS, Azure Functions, Event Hub, Delta Lake). CI/CD : GitHub Actions, intégration et déploiement continus. Bonus : Kafka, Spark Structured Streaming. Qualifications & Profil Diplôme en informatique/ingénierie ou équivalent. Expérience : 6+ ans en Data Engineering / Développement backend (dont plusieurs en environnement Azure & DevOps). Langues : Français et Anglais courants (écrit et oral). Résumé Mission longue (1 à 3 ans) sur Levallois-Perret, orientée sur le développement backend et l’ingénierie de données pour renforcer l’observabilité des systèmes critiques.

Freelance

Mission freelance
Data Engineer Azure / Databricks - Plus de 6 ans d'expérience

Octopus Group
Publiée le
CI/CD
Databricks
Python

6 mois
480-580 €
Belgique

Mission : Vous développerez des pipelines de données (ingestion/transformation), industrialiserez l'ETL/ELT, réaliserez des scripts, piloterez l'automatisation, garantirez la qualité et l'observabilité des données et participerez aux lots de travaux d'extraction. Toutes ces activités seront menées en étroite collaboration avec le client. Principales tâches : Construire les pipelines (ingestion/transformation). Industrialiser l'ETL/ELT. Scripting et automatisation. Qualité et observabilité des données. Participation aux lots de travaux d'extraction. Compétences techniques requises : Databricks (Spark, cahiers). Python/SQL. DeltaLake. Orchestration (par exemple, tâches Azure Data Factory/Databricks). Données CI/CD, tests, performances. Langues: Anglais ; français/néerlandais un plus. Emplacement: Belgique, avec des déplacements possibles avec le Portugal et d'autres pays.

CDI
Freelance

Offre d'emploi
Data Analyste SAS, Python, SQL - Niort

K-Lagan
Publiée le
Big Data

1 an
10k-48k €
100-450 €
Niort, Nouvelle-Aquitaine

Chez K-LAGAN, nous parions sur vous ! 🚀 K-LAGAN est un cabinet de conseil spécialisé dans la Data, l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) Data Analyst , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients très connu dans le secteur assurances, basé à Niort.

Freelance

Mission freelance
Tech Lead IA-Python/GCP

KEONI CONSULTING
Publiée le
Framework
Microservices
Python

18 mois
100-500 €
Paris, France

CONTEXTE: Expérience : 7 ans et plus Métiers Fonctions : Etudes & Développement-developpement Spécialités technologiques : Devops IA generative Monitoring tests unitaires Reporting Compétences Technologies et Outils Google Cloud Platform FastAPI GIT genai Java RESTFul GCP MongoDB Python Spring Boot genai PostgreSQL Méthodes / Normes SAFe TDD Agile Langues Anglais MISSIONS Dans le cadre d'un nouveau programme chez notre client, La Direction Informatique recherche une prestation de lead développement pour contribuer au développement du programme en mettant à disposition de nouveaux types d’agents IA venant enrichir les capacités de la plateforme self-service du client. Il s’agira de développer des solutions innovantes telles que les agents de type Retrieval-Augmented Generation (RAG). En capitalisant sur GCP et les dernières évolutions de GenAI, ces agents IA viennent enrichir les capacités de notre plateforme. Cette dernière permet aux utilisateurs métiers de créer, d’utiliser et de personnaliser des assistants et des workflows intégrant l'IA générative, afin d'améliorer nos processus et systèmes d'information (SI) existants. Le développement est réalisé en Python et Java, les agents IA dans une architecture micro-services et sont à développer, à intégrer dans l’écosystème, à maintenir et à faire évoluer. La mission concernera principalement : - La mise en place, la maintenance et l’évolution des agents IA : ● Garantir la couverture fonctionnelle et spécialisation de l’agent ● Garantir les capacités de collaboration de l’agent avec d’autres agents ● Garantir l’utilisation de standards lorsque possible ● Gérer les aspects sécurité et ACLs ● Intégrer monitoring et reporting sur l’activité agents IA ● Optimiser performance et coûts de fonctionnement ● Intégrer les mécanismes d’évaluation de la qualité de l’agent ● Garantir le passage à l’échelle de l’utilisation des agents - Garantir la stabilité et scalabilité de la plateforme par la mise en place/optimisation des technologies permettant la scalabilité et monitoring en collaboration avec les DevOps Garantir la remise en marche du SI dans les délais exigés par les projets - Communiquer sur l’état des services et le plan de remise en marche si le cas se présente - Challenger et contribuer à la vision du produit, piloter la conception, le développement, les opérations et garantir le SLA - Collaborer avec les Solution Architect pour l’étude des évolutions demandées par le produit - Identifier et prioriser les services offerts pour répondre aux besoins du client et de la stratégie du groupe - Sécuriser l'alignement organisationnel ainsi que la gestion des dépendances techniques avec les différentes parties prenantes - Assurer une veille technologique pour garantir la pérennité des solutions utilisées - Garantir la cohérence fonctionnelle et la qualité des composants - Garantir la pérennité et la mise à jour des outils et technologies employés - Garantir l’application des bonnes pratiques par l’ensemble des développeurs et le bon fonctionnement en mode agile du projet Livrables - Reporting de l’état des agents IA et technologies utilisés auprès des référents techniques - Capitalisation sur les technologies et sur toute problématique rencontrée par la formalisation dans les standards de l’entreprise (REX, eDEX, knowledge base, ...) - Code des développements demandés, conçus et mis en œuvre en production dans les critères d’acceptation Renault - Code des tests unitaires et d’intégrations automatisés - Documentation du code expliquant les programmes et algorithmes

Freelance

Mission freelance
Test Data BI

CRYSTAL PLACEMENT
Publiée le
Data Lake
Test unitaire

12 mois
Paris, France

Bonjour à tous, Nous sommes à la recherche d’un(e) Consultant(e) Test Data/BI pour rejoindre l’un de nos clients du secteur énergétique et contribuer à un projet clé autour de la qualité et de la valorisation des données. Objectifs de la mission : Assurer la qualité des données en vérifiant leur cohérence, leur exactitude et leur fiabilité Mettre en place et garantir la traçabilité des données tout au long du cycle de vie Intervenir dans un contexte Data Lake / BI , en participant à la structuration et à l’exploitation des données Développer et maintenir des rapports et tableaux de bord pour assurer un suivi fiable et pertinent des indicateurs

Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
Cloudera
Hadoop
Java

12 mois
450-500 €
France

Métier : Data Management, Développeur Big Data Spécialité technologique : Big Data Type de facturation : Assistance Technique (facturation au taux journalier) Compétences techniques : Spark (5 ans) Hive (Cloudera, 5 ans) Java Hadoop (5 ans) Soft skills : Autonomie Rigueur Leadership Description et livrables de la prestation : Intégré au chapitre DATA, entité transverse, le consultant intervient dans un environnement où la donnée est stratégique. Il accompagne les équipes métiers dans la conception et l’industrialisation des solutions DATA, notamment pour l’analyse de risques liés à des investissements et prêts professionnels. En tant que référent technique et méthodologique, il garantit la qualité, la cohérence et la performance des solutions Big Data déployées sur les plateformes SPARK et CLOUDERA. Missions principales : Appuyer les équipes métiers pour formaliser et concevoir des solutions DATA robustes et évolutives Participer à la construction de pipelines de données performants (traitement, transformation, ingestion, qualité) Assurer la mise en œuvre technique des projets sur l’écosystème Big Data (SPARK, CLOUDERA, HADOOP) Challenger les besoins métiers pour garantir leur pertinence et faisabilité Promouvoir les bonnes pratiques de développement et d’architecture DATA Contribuer à la maturité data de l’organisation en accompagnant les équipes vers plus d’autonomie et de rigueur dans la manipulation des données

Freelance
CDI

Offre d'emploi
Architecte Sécurité Cloud & IA Senior

PointRD
Publiée le
Azure
Azure Synapse
BigQuery

24 mois
Île-de-France, France

Votre Mission : Intégrer l'avenir (Cloud & IA) en toute sécurité Nous recherchons un(e) Architecte Sécurité Cloud & IA Senior en freelance pour une mission de longue visibilité chez l'un de nos clients grands comptes basé à Paris. Votre rôle est stratégique : garantir la conformité et la sécurité des systèmes et applications , en mettant l'accent sur les environnements Cloud (GCP/Azure) et l'intégration sécurisée des technologies d'Intelligence Artificielle (IA) . Vous agirez comme un véritable conseiller expert auprès du CSO (Chief Security Officer) et des équipes métier/IT, en assurant que la sécurité est intégrée par design dans tous les projets. Vos Responsabilités Clés Architecture & Conseil Sécurité : Fournir une expertise et des recommandations sur l'architecture technique des projets. Mener les analyses de risques (y compris DPIA ) et les revues de sécurité. Sécurité Cloud & IA : Être la référence pour la sécurisation des environnements multi-cloud (GCP et Azure) . Contribuer à l'élaboration d'une politique de sécurité pour les solutions basées sur l'IA et le Machine Learning. Gestion des Risques & Conformité : Maintenir la sécurité du périmètre applicatif en ligne avec les standards du Groupe. Assurer la conformité des prestataires externes et des accords SLA (Service Level Agreement). Opérationnel & Amélioration : Évaluer la criticité des vulnérabilités, assurer le suivi des actions correctives et contribuer à l'amélioration continue des processus de sécurité opérationnelle. Innovation : Exploiter les technologies d'IA pour améliorer la détection des menaces, le renseignement et la gestion des vulnérabilités.

CDI

Offre d'emploi
Data Engineer

TOHTEM IT
Publiée le

35k-42k €
Paris, France

Contexte Dans le cadre de nos projets de transformation digitale et d’optimisation des opérations ferroviaires, nous renforçons notre équipe Data. Nous recherchons un(e) Data Engineer Junior motivé(e) et curieux(se), avec 2 ans d’expérience, pour contribuer à la mise en place de pipelines de données robustes et scalables au sein d’un environnement technique stimulant. Missions Participer à la conception, au développement et à la maintenance de pipelines de données (batch & temps réel) Collecter, transformer et valoriser les données issues des systèmes ferroviaires (capteurs, maintenance, circulation, etc.) Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et modéliser les données Participer à la mise en place de bonnes pratiques (tests, CI/CD, documentation, data quality) Travailler dans un environnement cloud (AWS / GCP / Azure selon le contexte) Environnement technique : Power BI, Databricks, cloud AWS

Freelance
CDI

Offre d'emploi
Data Scientist (F/H) – Domaine Biomédical

CELAD
Publiée le
Data science
Matlab

1 an
50k-55k €
470-480 €
Grenoble, Auvergne-Rhône-Alpes

A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 CDI (50-55K€) OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Grenoble - 🛠 Expérience de 5 ans minimum Vous souhaitez mettre vos compétences en Data Science au service de la recherche biomédicale ? 🚀 Rejoignez une équipe passionnée où la data, la science et l’innovation se rencontrent pour faire avancer la santé de demain ! Nous recherchons un.e Data Scientist confirmé.e , disposant d’une connaissance métier dans le domaine du biomédical, pour accompagner l’un de nos clients industriels sur des projets de modélisation et de simulation à forte valeur scientifique. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Participer à l’amélioration d’outils de simulation et de modélisation de processus biologiques - Concevoir et exécuter des analyses statistiques et des jeux de simulations de données réelles - Collaborer étroitement avec les équipes de biologistes et data scientists pour comparer, interpréter et affiner les modèles existants - Identifier les écarts entre simulations et données expérimentales et proposer des axes d’optimisation - Restituer vos conclusions de manière claire et synthétique auprès des équipes projet

Freelance
CDI

Offre d'emploi
Cybersécurité gouvernance / Cybersecurity Officer

VISIAN
Publiée le
Big Data
Cybersécurité

1 an
40k-45k €
400-600 €
Île-de-France, France

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre du Group Data CISO vis à vis de l'évolution de la stratégie relative à la sécurité de la DATA en étant l'interlocuteur privilégié des différentes fonctions ayant des responsabilités vis à vis de Data. Il est un élément clé dans la préparation et l'organisation des "Group Data Steering Committee" Missions principales Interaction avec l'ensemble des parties prenantes pour définir les priorités en termes d'exigences cyber autour de la Data

Freelance
CDI

Offre d'emploi
Expert Sécurité Opérationnelle - Cloud Public GCP

ADONYS
Publiée le
Cloud
Cybersécurité
Google Cloud Platform (GCP)

3 ans
40k-45k €
400-550 €
Île-de-France, France

Intitulé du poste Expert Sécurité Opérationnelle – Cloud Public GCP Résumé du poste Le poste consiste à accompagner les projets d’une grande entreprise sur tous les aspects de sécurité liés à l’utilisation du cloud public Google (GCP). Le candidat sera responsable de la mise en place, du suivi et du pilotage des solutions et contrôles de sécurité, ainsi que du traitement des non-conformités. Responsabilités principales Intégrer la sécurité dans tous les projets cloud dès leur conception avec un focus sur GCP. Mettre en place des solutions de sécurité, assurer leur pilotage et leur gestion au quotidien. Garantir le suivi des contrôles de sécurité et la remédiation des non-conformités ou alertes détectées. Accompagner les projets sur les volets sécurité : définition, implémentation et suivi de la conformité. Participer à l’analyse et au traitement des incidents de sécurité. Préparer et présenter des reportings sur l’état de la sécurité auprès de la direction et des partenaires. Rédiger et maintenir la documentation technique et les procédures en anglais. Compétences requises Expérience significative (plusieurs années) sur des environnements cloud, exclusivement GCP (Google Cloud Platform), dans un grand groupe (pas de PME/PMI). Maîtrise des outils et solutions de sécurité cloud (CSPM, gouvernance cloud, sécurité réseau, chaînes CI/CD sécurisées). Très bon niveau d’anglais écrit et oral (réunions, présentations, rédaction documentaire). Expérience dans l’intégration et la gestion de la sécurité dans des projets de transformation cloud. Maîtrise de la gestion des incidents et remédiations, ainsi que des contrôles de conformité. Compétence confirmée sur la sécurité réseau dans le cloud. Capacité à défendre ses choix techniques (voire devant un top management) en anglais. Atouts appréciés Expérience dans le secteur bancaire. Solide expérience opérationnelle (pas seulement orientée gouvernance). Connaissance d’autres technologies de sécurité cloud ou hybrides peut être un plus. Contraintes et modalités Présence physique sur Paris 13e (mobilité en Île-de-France exigée). Disponibilité pour des astreintes et interventions en urgence. Statut : freelance ou salarié accepté, mais disposer d’un préavis d’un mois minimum, pour garantir la continuité de service. Démarrage : poste ouvert jusqu’à la sélection du bon profil, sans date limite fixée. Résumé des qualités attendues Opérationnel, autonome, rigoureux. Forte expertise sécuritaire sur GCP et sur les problématiques réseau cloud. Anglais professionnel courant (présentation, échange, documentation). Disponible rapidement et capable d’intégrer un environnement exigeant.

Freelance

Mission freelance
Développeur Big Data

KEONI CONSULTING
Publiée le
autonomie

18 mois
100-400 €
Vanves, Île-de-France

CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Data Management, Développeur Big Data Spécialités technologiques : Big Data Au sein du chapitre DATA, entité transverse au service des différentes tribus métiers, vous interviendrez dans un environnement stimulant où la donnée est au cœur des réflexions stratégiques. Votre rôle consistera à accompagner les équipes métiers dans la conception et l’industrialisation des solutions DATA, notamment autour de problématiques d’analyse de risque dans le cadre d’investissements et d’accords de prêt aux professionnels. MISSIONS Vous serez un référent technique et méthodologique, garant de la qualité, de la cohérence et de la performance des solutions Big Data déployées sur les plateformes SPARK et CLOUDERA. Missions principales - Intervenir en appui des équipes métiers pour les aider à formaliser et concevoir des solutions DATA robustes et évolutives. - Participer à la construction de pipelines de données performants et scalables (traitement, transformation, ingestion, qualité). - Assurer la mise en œuvre technique des projets sur l’écosystème Big Data (SPARK, CLOUDERA, HADOOP). - Challenger les besoins métiers pour garantir la pertinence et la faisabilité des solutions. - Promouvoir les bonnes pratiques de développement et d’architecture DATA au sein des équipes. - Contribuer à la maturité data globale de l’organisation, en accompagnant les équipes vers plus d’autonomie et de rigueur dans la manipulation des données. Expertise souhaitée Compétences techniques - Solide maîtrise des environnements SPARK, CLOUDERA, HADOOP. - Bonnes connaissances de Hive et Java (BONUS). Soft skills et posture - Capacité à prendre du recul et à aborder les sujets sous un angle global et critique. - Aisance dans la communication transverse et l’interaction avec des interlocuteurs non techniques. - Esprit de leadership intellectuel : savoir challenger, convaincre, faire réfléchir les équipes métiers. - Autonomie, curiosité et sens du collectif. - Goût pour la pédagogie technique et l’accompagnement au changement.

Freelance

Mission freelance
Data Engineer AWS

TEOLIA CONSULTING
Publiée le
Big Data
CI/CD

12 mois
400-550 €
Paris, France

Nous recherchons pour l'un de nos clients, un Data Engineer expérimentés pour nous accompagner dans la conception, le développement et la gestion d'infrastructure AWS orientée médias. Missions principales : Développer et industrialiser des pipelines de données et microservices sur AWS. Assurer la qualité, la fiabilité et l’accessibilité des données. Collaborer avec les équipes Data Science pour répondre aux besoins métiers. Maintenir et optimiser les systèmes existants. Participer à la collecte des besoins et à la documentation technique.

Freelance
CDI

Offre d'emploi
Développeur Web / Web service Full Stack Front & Back End- Dijon (H/F)

RIDCHA DATA
Publiée le
.NET
ASP.NET
Bitbucket

2 ans
Dijon, Bourgogne-Franche-Comté

📌 Contexte de la mission Afin de renforcer l’équipe en charge de l’application de communication et notification NOTIF’IT , nous recherchons un développeur Full Stack expérimenté. Ce renfort sera intégré à une équipe existante composée de 6 personnes (2 MOA, 3 DEV, 1 alternant). 🏆 Objectif global Assurer le maintien en condition opérationnelle de l’application existante (exploitation, administration, support, dépannage). Participer au développement des nouvelles fonctionnalités (web & mobile). Contribuer à l’amélioration continue de la qualité du code (revue de code, tests unitaires, bonnes pratiques). 💡 Compétences techniques attendues .Net, C#, MVC, Javascript – Expert (impératif) MAUI, Dev Express – Expert (impératif) IIS, SQL Server – Confirmé (important) Razor, Entity Framework – Confirmé (important) Expérience avec un outil de gestion de versions (BitBucket ou équivalent). 📝 Description des activités Développement et maintenance de l’application NOTIF’IT (Web et Mobile). Support technique et accompagnement de l’équipe dans les phases critiques. Contribution à la documentation technique et aux tests unitaires. Travail en coordination avec l’équipe répartie sur Saint Quentin en Yvelines (78) et Dijon (21) . Mission basée principalement sur le site de Dijon .

2008 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous