Trouvez votre prochaine offre d’emploi ou de mission freelance IA

Votre recherche renvoie 777 résultats.
CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer full remote F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch

Toulouse, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Analyst

CAT-AMANIA
Publiée le
Business Object
Qlik Sense

40k-61k €
Maisons-Alfort, Île-de-France
Element de contexte et organisation : Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme, piloté par le Chief Data Officer (CDO) et sous sponsoring de la Direction Générale, comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le cœur du SI. En parallèle, le chantier de transformation Cloud en cours induit d’importantes adhérences avec les travaux d’industrialisation de la plateforme Data & IA. L'organisation projet est réalisée avec SAFE. Objectif poursuivi pour cette mission : La mission porte sur la réalisation du socle Financement et contentieux dont il s'agira d'assurer un rôle de Data Analyst avec pour objectif de: - spécifier les besoins en terme de données Financement et Contentieux permettant de servir les usages bancaires des filières : -- Crédit Bail équipement, -- Crédit Immobilier, énergie & environnement, -- Court terme, -- Immatériel - modéliser les entités permettant de représenter les données des métiers du Financement et du Contentieux - spécifier les Data Product nécessaire pour couvrir : -- les besoins des filières (Reporting opérationnels, Agents opérationnels, suivi d'activité, reporting conventionnels,...) -- les besoins de l'équipe chargée d'exploiter le socle Financement et Contentieux (Reporting transverses, études de prospection, cross-selling, ...) - définir et contrôler la Qualité des données véhiculées au sein du socle - réaliser les recettes des données collectées Compétences métier souhaitables : Mission(s) réussie(s) dans le domaine Bancaire dans le cadre de reportings de Financement. Bonne connaissance des métiers bancaires (Crédit, crédit bail, court terme, ...) Très bonne connaissance des données bancaires du financement Forte appétence pour la donnée La connaissance de l'écosystème (notamment le Legacy) serait un plus Liste des technologies : Le comptoir de données est réalisé sur le Cloud AWS. Outil de restitution de la donnée : Business Objects, QlikSense Bon niveau en SQL
Freelance
CDI

Offre d'emploi
Machine Learning/ML Engineer

WINSIDE Technology
Publiée le
Python

3 ans
40k-52k €
400-540 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Engineer confirmé.e pour une grande entreprise sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans à minima en tant ML Engineer. tu es expert.e en conception et industrialisation de modèles. tu sais automatiser les entraînements et les déploiements de modèles. tu as 5 ans d'expérience professionnelle en Python. tu as des bases solides sur MLflow ou Kubeflow ou Vertex. tu es familier avec l'environnement GCP et ses services. tu as des excellentes connaissances DevOps et de bases de données SQL et NoSQL. Idéalement tu as eu une expérience dans le retail. Les bénéfices du poste : 🤖 Un terrain de jeu technologique de pointe Le poste offre une exposition complète aux technologies les plus recherchées du marché : LLM, RAG, MLOps, GCP, Kubernetes — avec une ownership réelle du cycle de vie complet des modèles, du prototype à la production. 🚀 Un environnement d'innovation structuré L'entreprise combine l'agilité (Scrum/SAFe) d'une culture innovation avec la solidité d'un grand groupe, offrant ainsi stabilité et dynamisme pour progresser vite. Tes missions : Concevoir, développer et industrialiser des modèles de Machine Learning et d'IA, de la phase de prototypage jusqu'à la mise en production. Construire et maintenir les pipelines de données et de MLOps pour automatiser l'entraînement, l'évaluation et le déploiement des modèles. Participer activement à l'architecture et au développement des produits du domaine, notamment la plateforme MLOps et les solutions basées sur les LLM. Assurer la scalabilité, la robustesse et la performance des solutions IA déployées, en collaboration avec les équipes Ops et Data. Garantir la qualité du code et des modèles via des revues, des tests automatisés (unitaires, intégration) et des stratégies de monitoring. Participer à l'élaboration de la CI/CD selon les pratiques DevOps et MLOps sur la Google Cloud Platform et Github. Assurer une documentation complète des modèles, des pipelines et des configurations au sein du référentiel documentaire (Github / Gitbook). Être responsable du cycle de vie complet des modèles (build et run), incluant le monitoring et la maintenance en production. Démarrage : mi-mars, début avril. TT: 3 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
CDI

Offre d'emploi
Développeur Frontend confirmé (H/F)

█ █ █ █ █ █ █
Publiée le
Application web
CI/CD
Git

45k-55k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Analyst Sénior

Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse

1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Freelance

Mission freelance
Data Scientist Senior

NEOLYNK
Publiée le
Python
SQL

3 mois
400-500 €
Lille, Hauts-de-France
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques.
Freelance

Mission freelance
Juriste confirmé en droit numérique

Codezys
Publiée le
ISO 27001
ISO 27005
RGPD

12 mois
Toulouse, Occitanie
Contexte de la mission Assister et conseiller les chefs de projets informatiques dans l'identification des données à caractères personnels, des traitements associés, documenter les livrables RGPD selon la méthodologie officielle en lien avec l'expert en sécurité des systèmes d'information, dans le respect de la méthode du groupe bancaire concerné, définir et recetter les exigences, identifier / évaluer les risques en matière de protection des données et proposer des actions de remédiation. Les missions incluent également : Rédiger les analyses d'impact relatives à la protection des données (AIPD / PIA) en collaboration avec les départements métiers, les délégués à la protection des données (DPO), les filières juridiques / achats et la conformité du groupe. Contribuer à la sensibilisation des collaborateurs au quotidien sur la vie privée, notamment en matière de RGPD, cookies et traceurs, usages des données, intelligence artificielle, etc. Effectuer une veille réglementaire et technique en matière de protection des données. Assurer le support en cas de violation de données, de demandes des autorités de contrôle, d'exercices de droits, et coordonner le support avec les plateformes internes et la direction dédiée à la protection des données du groupe.
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Freelance

Mission freelance
Data Engineer (F/H)

CELAD
Publiée le

1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

45k-55k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Chef de projet Data (H/F)

CGI
Publiée le
GraphQL
Large Language Model (LLM)
Neo4j

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de projets innovants autour de la valorisation de la donnée, nous recherchons un Chef de Projet Data capable de piloter des initiatives basées sur des modèles de données orientés graph (Graph Data Model) , intégrant des technologies comme Neo4j , et potentiellement des briques IA / LLM . L’objectif est de structurer, piloter et sécuriser la delivery de projets data à forte valeur métier. Piloter des projets Data autour de modèles Graph Coordonner les équipes Data (Data Engineers, Data Scientists, Architectes, Dev) Superviser la conception de modèles de données orientés graph Accompagner l’implémentation de solutions type Neo4j Encadrer les phases de cadrage, POC, industrialisation et mise en production Piloter l’intégration éventuelle de briques IA / LLM Assurer la gouvernance des données (qualité, sécurité, conformité) Suivre planning, budget, risques et reporting
Freelance

Mission freelance
GenAI Agent Developer

Signe +
Publiée le
Python

12 mois
400-590 €
Paris, France
Contexte Mission stratégique au sein du Cloud Center of Excellence (CCOE) Data & AI Foundations visant à industrialiser le développement d’agents d’IA générative pour une plateforme utilisée à l’échelle internationale. L’objectif est de transformer un SDK existant en produit industrialisé, sécurisé et déployable dans des environnements sensibles et hautement sécurisés. Besoin GenAI agent developer Objectifs de la mission Prendre en main le SDK existant et en assurer la maîtrise technique Industrialiser le SDK pour le rendre scalable, maintenable et déployable à grande échelle Intégrer les exigences enterprise : sécurité, identité, observabilité et exploitabilité en production Favoriser l’adoption du SDK par les équipes IA internes Besoin GenAI agent developer Missions principales Développement et évolution du SDK pour agents GenAI Implémentation des mécanismes de sécurité et de gestion des identités Intégration de l’observabilité et des pipelines de déploiement Documentation complète technique et fonctionnelle Support des équipes IA pour l’intégration du SDK dans leurs produits Besoin GenAI agent developer Compétences requises Python LangGraph, LangChain, MLflow Expérience industrialisation d’agents IA et productisation Maîtrise des protocoles d’identité et sécurité (OIDC, token forwarding, etc.) Expérience environnements sécurisés / régulés Bonne maîtrise CI/CD et cycle de vie logiciel Anglais professionnel Besoin GenAI agent developer Livrables attendus Versions industrialisées du SDK Documentation technique complète et blueprint d’architecture Plan d’enablement et support à l’adoption intern
Stage

Offre de stage
Stage – Business Développer / Ingénieur Commercial IT (H/F)

EYON
Publiée le
Commerce
Commercial
Pilotage

4 mois
20k €
Lyon, Auvergne-Rhône-Alpes
Opportunité de pré-embauche en alternance Vos Missions : Rattaché(e) au Business Manager, vous aurez un rôle entrepreneurial pour développer l'activité de l'entreprise à travers trois axes majeurs : 1. Social Selling & Prospection (Cœur de mission) Définir et mettre en œuvre avec un outillage adapté (solutions innovantes, Intelligence Artificielle) des plans d'action business stratégiques. Identifier de nouveaux besoins et générer des opportunités d'affaires auprès d'entreprises cibles. Utiliser les réseaux sociaux et les outils de veille économique pour créer et maintenir des relations clients efficientes. 2. Business Management Répondre aux opportunités d'appels d'offres et accompagner le Business Manager en rendez-vous clients. Participer à l'intégralité du cycle de vente (du CRM à la contractualisation). Assurer le suivi des prestations pour garantir la satisfaction client. 3. Pilotage & Reporting Qualifier les activités commerciales et assurer le suivi des performances. Contribuer au respect des budgets liés aux projets et investissements.
Freelance
CDI

Offre d'emploi
DevOps ( Cloud / Kafka / APIGEE)

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Nantes, Pays de la Loire
Contexte de la mission Améliorer l'industrialisation, la sécurisation et la supervision des plateformes d'échanges : KAFKA, APIGEE, Bucket GCP, SFTP. Travailler sur la résilience d'APIGEE/KAFKA/SFTP ainsi que les sujets de migration KAFKA (Move 2Paris) et sur les sujets autour de l'IA avec APIGEE (MCP Server), autre plateforme Google Kafka. Un nouveau périmètre à intégrer dans l'équipe Scripts, code Terraform pour ci/cd, Procédures explicatives Astreintes et Intervention à prevoir Objectifs et livrables lCoud Provider Public (idéalement GCP) Scripting (Shell, Python) Terraform, Git , Argo, Kubernetes, Ansible KAFKA, APIGEE, Bucket GCP, SFTP, Cloudflare
Freelance

Mission freelance
Chef de projet Agile Devop - Paris

Net technologie
Publiée le
DevOps
Gestion de projet

1 an
Paris, France
🚀 Opportunité – Senior IT Project Manager / Tribe Scrum Master (H/F) Dans le cadre d’un programme stratégique de transformation IT au sein d’un grand acteur international des services financiers (Fund Administration), nous recherchons un profil senior pour piloter des projets structurants autour de la modernisation des systèmes (Cloud, API, DevOps, Data & IA). 🎯 Missions clés : Leadership Agile @Scale (Tribe Scrum Master) Pilotage de projets IT complexes (cadrage, architecture, gouvernance) Déploiement DevOps & Cloud (CI/CD, tests automatisés) Contribution aux cas d’usage IA Coordination transverse Business / IT / Architecture
777 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous