L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 466 résultats.
Mission freelance
Data Engineer expérimenté (H/F) - Nantes
CAT-AMANIA
Publiée le
Ansible
Data Engineering
Data Warehouse
1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data stratégique, nous recherchons un Data Engineer expérimenté pour intervenir sur des projets à forte valeur ajoutée autour d’un socle data en constante évolution. Vous intégrerez une équipe agile composée d’experts data, d’un Scrum Master et d’un Product Owner, dans un environnement collaboratif axé sur l’innovation et l’excellence technique. La mission s’inscrit dans une dynamique combinant : Build : conception et développement de solutions data Run : maintien en conditions opérationnelles et optimisation continue Migration : accompagnement des évolutions techniques (notamment ETL → ELT) Modernisation : transformation vers des architectures data modernes Vos missions principales : Développer des traitements ELT (principalement xDI) pour alimenter un Datawarehouse Maintenir et faire évoluer les templates techniques Participer à la roadmap de migration (ETL vers ELT) Accompagner les équipes utilisatrices des solutions data Documenter les solutions mises en place Garantir la performance et la stabilité des traitements en production Identifier et proposer des optimisations dans une logique d’amélioration continue Partager vos connaissances et contribuer à la montée en compétence de l’équipe
Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)
Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud
6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
Offre d'emploi
Consultant.e DevOps & AWS F/H
METSYS
Publiée le
AWS Cloud
DevOps
Gitlab
55k-67k €
La Défense, Île-de-France
Pour l'un de nos clients grands-comptes, leader dans son secteur d'intervention et de renommée nationale et internationale, nous recherchons un.e Consultant.e DevOps & AWS (F/H) pour un démarrage dès que possible à La Défense (92). Dans le cadre de cette mission, vous interviendrez sur les problématiques DevOps et AWS traitées par notre client. Vous interviendrez via les outils Terraform, Gitlab et Terragrunt. Plus précisément, vous interviendrez à 70 % sur du Cloud et 30% sur DevOps AWS Gitlab : upgrade, runner, création des pipeline. Vous serez là en accompagnement des équipes à créer les pipelines. Ce descriptif n'est pas exhaustif.
Mission freelance
Analyste Support BI & Cloud Solutions (N2)
Nicholson SAS
Publiée le
Azure Data Factory
Databricks
Gouvernance, gestion des risques et conformité (GRC)
10 mois
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Secteur : Industrie / Excellence Opérationnelle Localisation : Clermont-Ferrand (Rythme : 3 jours/semaine sur site) Démarrage : ASAP Visibilité : Jusqu’au 15/02/2027 Le Challenge Au cœur d'un environnement Cloud moderne, votre mission consiste à garantir la fiabilité, la performance et la disponibilité critique des services BI. Véritable pivot entre la technique et les besoins métiers, vous assurez un support de niveau 2 sur des solutions de reporting et de traitement de données à forte valeur ajoutée. Vos Responsabilités Maintien en Condition Opérationnelle : Analyse et résolution d'incidents complexes (logs, erreurs de traitement, gestion des permissions). Interface Technico-Fonctionnelle : Traduire des problématiques techniques complexes en impacts métiers clairs pour les parties prenantes. Transition & Qualité : Participer aux phases de mise en exploitation (SDM, SLA) et assurer le suivi rigoureux des indicateurs de performance. Amélioration Continue : Identifier proactivement les points de fragilité, remonter les alertes et proposer des optimisations sur l'existant (IA, automatisation). Astreintes : Participation ponctuelle au dispositif d'astreinte (environ 1 semaine par mois). Stack Technique & Expertise Data Core : Maîtrise avancée du SQL et de Python orienté Data. Ecosystème Azure : Azure Data Factory, Azure Databricks et principes de gouvernance Cloud. Restitution : Expertise fonctionnelle sur Power BI (incluant les concepts de sécurité RLS). Data Science : Notions de base en Machine Learning pour accompagner les évolutions analytiques. Langue : Anglais courant obligatoire (contexte international). Profil Recherché Vous justifiez d'une expérience de 4 ans minimum sur un rôle similaire, mêlant rigueur technique et sens du service. Esprit d’Analyse : Capacité à synthétiser des informations complexes et à prioriser les urgences. Agilité Relationnelle : Vous interagissez avec aisance avec des profils variés (DevOps, Data Engineers, Métiers, Support L3). Curiosité : Un intérêt marqué pour les nouvelles technologies et l'IA pour faire évoluer votre périmètre. Conditions de la prestation TJM : 400 € Soft Skills clés : Autonomie, proactivité et excellente communication écrite/orale.
Offre d'emploi
Data Engineer GCP H/F
JEMS
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Mission freelance
POT9115 - Un Data Engineer Airflow Confirmé sur Tours
Almatek
Publiée le
Python
6 mois
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage
Offre d'emploi
Data Engineer Apache NiFi/SQL/JSON/XML/API
OBJECTWARE
Publiée le
Apache NiFi
API
JSON
3 ans
40k-68k €
400-550 €
Île-de-France, France
Objectif de la mission Dans le cadre du déploiement d’une plateforme Data destinée à centraliser, fiabiliser et gouverner l’ensemble des données des domaines banque et assurance, vous intégrez la squad Data Flux. Cette équipe, composée de trois développeurs Data, d’un architecte technique, d’un Business Analyst et d’un Product Owner, est responsable des missions suivantes : la conception et l’implémentation des flux de données, l’intégration et la transformation de données provenant de sources multiples, la sécurisation et l’industrialisation des flux, en conformité avec les standards attendus en matière de qualité et de traçabilité. Une expérience dans les secteurs de l’assurance, de la banque ou de la finance est vivement recommandée, notamment sur des développements de flux conformes à la norme Penelop, ainsi que sur des flux de données liés aux domaines assurantiels ou aux données clients. - Conception et développement de pipelines de données : Concevoir des flux robustes et évolutifs pour l’ingestion, la transformation et la diffusion des données dans le cadre du modèle Bronze / Silver / Gold. - Développement et intégration sur Apache NiFi : Implémenter et paramétrer des workflows NiFi pour collecter et normaliser les données issues de différentes sources (fichiers XML/CSV, API REST). - Transformation et modélisation des données : Participer à la modélisation du socle de données structurées et au développement des transformations afin de constituer les vues consolidées du MDM. - Contrôles de qualité et traçabilité : Mettre en place des mécanismes d’audit, de logs et de contrôle (complétude, unicité, cohérence, versioning des données). - Optimisation et performance : Surveiller les performances des pipelines, identifier les goulots d’étranglement et proposer des améliorations continues. - Sécurité et conformité : Veiller à la sécurité des données (authentification, chiffrement, gestion des accès) dans le cadre des standards du groupe. - Documentation et partage de connaissances : Documenter les processus, les schémas et les bonnes pratiques afin d’assurer la maintenabilité et la transmission des savoirs au sein de la squad. PREREQUIS TECHNIQUES : - Maîtrise d’Apache NiFi (ingestion, orchestration, monitoring) - Solides connaissances en SQL et modélisation de données relationnelles (PostgreSQL) - Connaissance des modèles de stockage objet (S3, Blob) - Connaissance des formats et protocoles : JSON, XML, CSV, REST API - Compétences en scripting (Python, Bash) appréciées - Sensibilité aux enjeux de qualité, sécurité et gouvernance des données Compétences Techniques : SQL, Python, Bash, Gitlab
Offre d'emploi
Data Scientist / Machine Learning Engineer Confirmé H/F
DAVRICOURT
Publiée le
40k-45k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Scientist / Machine Learning Engineer Confirmé pour l'un de nos clients du secteur bancaire. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Concevoir, développer et évaluer des modèles de machine learning (supervisés, XAI) ; - Mettre en production les modèles via des pipelines MLOps (CI/CD, APIs, monitoring) ; - Développer des solutions basées sur les LLM et la GenAI (RAG, fine-tuning, LangChain) ; - Assurer le suivi des performances et l'amélioration continue des modèles en production.
Mission freelance
Data Owner Merchandising
Zenith Rh
Publiée le
12 mois
Nord, France
Nous recherchons pour notre client, un(e) Data Owner Merchandising, pour une mission en freelance au sein d’un grand groupe leader dans son domaine. Dans le cadre d'une transformation, vous interviendrez pour structurer et garantir l'intégrité du patrimoine de données. Votre rôle est central : vous êtes le garant de la définition, de la gouvernance et de la qualité des données liées aux services merchandising. En véritable chef d'orchestre, vous définissez les règles, les standards et les processus tout en identifiant les responsabilités de chaque acteur. Vous jouez un rôle d'arbitre pour les décisions business et priorisez les chantiers d'amélioration en veillant à ce que les équipes métiers assurent les corrections nécessaires. Votre mission est d'assurer un alignement parfait entre les besoins opérationnels de terrain et les exigences des domaines consommateurs de données.
Mission freelance
Ingénieur broadcast post-production AVID / DAM
INSYCO
Publiée le
Adobe Creative Suite
AWS Cloud
Google Cloud Platform (GCP)
36 mois
400-550 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Ingénieur broadcast post-production AVID / DAM Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/BPP/5175 dans l'objet de votre message Le client recherche une prestation d'ingénierie de technologie broadcast en post-productions sur des périmètres nationaux et sur des sites délocalisés. La prestation consiste à participer, au sein de l'équipe d'ingénieurs technologie du client, aux projets d'évolution des systèmes de post-production, en prenant part à l'étude, la configuration, l'intégration et la mise en production des nouveaux systèmes nécessaires à l'exploitation des équipements existants. Missions transverses Accompagner l'intégrateur retenu par le client sur le déploiement d'un projet de déploiement multi-sites Participer aux projets et à la mise à jour des systèmes de post-production du site principal Participer à l'intégration et à l'administration d'un outil DAM (Digital Asset Management) pour un département interne Conduire des études de solutions techniques et répondre aux demandes d'évolution Assurer l'installation, la configuration et la recette des solutions Produire des documentations techniques d'intégration et assurer le support Assurer le support niveau 2 des solutions Dans le cadre du projet multi-sites délocalisés (pour 50% du temps selon les phases) Participer à la mise en place des plateformes de test (à terme, 3 plateformes sur le site principal) et mener les qualifications et recette des systèmes Accompagner le recueil des besoins sur chaque site délocalisé Suivre la mise à disposition des plateformes virtuelles et du réseau sur chaque site en relation avec l'équipe informatique et l'intégrateur Être l'interlocuteur technique du client face à l'intégrateur en charge du projet, valider les configurations, suivre le déploiement des outils ; participer à la définition et au suivi des besoins informatiques Valider les livrables de l'intégrateur et le bon fonctionnement des installations sur le périmètre broadcast AVID Coordonner les actions des équipes Audiovisuel et IT pour la partie intégration Dans le cadre des post-productions (pour 25% du temps selon les phases) Participer aux divers projets de post-productions tels que : Mise en place d'une plateforme Telestream / Vantage mutualisée en data center Stations d'étalonnage (Da Vinci Resolve) en réseau Evolution du PAM AVID du site principal Déploiement de serveurs de licences AVID Dans le cadre du projet DAM (pour 25% du temps selon les phases) Participer au déploiement d'une solution DAM en mode SaaS ou On Premise Participer à l'ingénierie des infrastructures et des workflows métiers Paramétrer et administrer la solution, répondre aux demandes techniques des exploitants Rédiger des documents de workflow, projet et ingénierie pour transmission au service support
Offre d'emploi
Administrateur Active Directory & Identités Hybrides Cloud F/H
GENIOUS
Publiée le
Active Directory
AWS Cloud
45k-55k €
La Défense, Île-de-France
Genious Systèmes recherche pour son client un Administrateur Active Directory & Identités Hybrides Cloud F/H Administration/Exploitation : Installation, configuration, exploitation des équipements/services ainsi que des environnements Cloud IaaS/PaaS. Administration des environnements Active Directory hybrides (AD DS, AD Connect, Azure AD). Supervision et gestion des synchronisations d’identités (AD Connect, Cloud Sync) et mise en oeuvre des outils garantissant la cohérence des données. Vision globale et actualisée des systèmes d’information et connaissance de l’entreprise. Organisation et optimisation des ressources de son domaine. Mise en application des normes et des recommandations de déploiement des équipements dans les Datacenter Icade et de ses environnements Cloud. Suivi et analyse des performances, mise en place des mesures susceptibles d’améliorer la qualité ou la productivité de l’outil et intégration de la supervision Cloud (type Azure Monitor, Log Analytics, CloudWatch, CloudTrail) avec les outils existants (Prometheus/Grafana) pour une observabilité de bout en bout. Élaboration des règles d’utilisation de l’outil, en conformité avec les normes et standards de l’entreprise et dans le respect des contrats de service. Documentation des systèmes d’information gérés et des procédures. Sécurité : Définition de la politique de gestion des droits d’accès aux serveurs et aux applications en fonction des profils. Support/Maintenance : Traitement des incidents ou anomalies à partir des demandes internes : diagnostic de l’incident, identification, formulation et suivi de sa résolution. Traitement des incidents auprès des supports techniques (constructeurs/éditeurs). Proposition d’améliorations pour optimiser les ressources existantes et l’organisation. Transfert de compétences et assistance technique des procédures aux équipes production/exploitation et participation éventuelle à leur formation. Support et assistance technique aux responsables métiers dans la conduite de projet. Suivi et application du patch management des équipements gérés en relation avec les constructeurs et les éditeurs de logiciels (actions de maintenance évolutive, préventive et correctrice, Inventaire).
Offre premium
Offre d'emploi
Directeur de Programme IT / Data (H/F)
ALTEN
Publiée le
Data Strategy
Gestion de projet
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un programme stratégique de migration des plateformes data et BI, ce poste joue un rôle central. Il implique une collaboration étroite avec des équipes techniques et métiers, et s’inscrit dans une dynamique de transformation du SI, avec des enjeux forts en gouvernance et coordination. Intervenir sur le pilotage transverse d’un programme de migration de plateforme data , en assurant la coordination des équipes techniques et métiers Contribuer à l’animation de la gouvernance du programme (comités de pilotage, comités techniques, suivi des décisions et arbitrages) Coordonner les différentes squads techniques et gérer les interdépendances entre les chantiers Intervenir dans la gestion de la relation avec les métiers , en animant les ateliers d’expression des besoins et en accompagnant la transformation des usages Contribuer à la gestion du changement et à la communication auprès des utilisateurs finaux Piloter le suivi budgétaire du programme (OPEX / CAPEX), l’allocation des ressources et les arbitrages nécessaires Contribuer à l’identification et au suivi des risques projet , ainsi qu’à la mise en place de plans de mitigation Garantir la qualité des livrables et le suivi des migrations de flux de données et de restitutions BI Piloter la stratégie de décommissionnement des usages obsolètes et la rationalisation des infrastructures Contribuer à la documentation, capitalisation et préparation des instances de gouvernance du programme
Mission freelance
CONSULTANT OBSERVABILITE DATADOG
PARTECK INGENIERIE
Publiée le
AWS Cloud
Datadog
Kubernetes
12 mois
400-650 €
75000, Paris, Île-de-France
Dans le cadre de l’amélioration de la supervision et de la fiabilité des plateformes , nous recherchons un Expert Observabilité Datadog pour accompagner l’un de nos clients dans la structuration et l’optimisation de son écosystème de monitoring. L’objectif de la mission est d’améliorer la qualité de l’observabilité, la détection des incidents et l’exploitation des données de monitoring dans un environnement Cloud / DevOps / SRE . Vos missions 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier les axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les équipes Optimiser l’usage de la plateforme (volumétrie des logs, sampling APM, gestion des coûts, rétention) Définir et diffuser les bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus et Grafana 2. Supervision, observabilité et fiabilité (SRE) Concevoir et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, corrélation des incidents) Définir des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et le service management Améliorer la détection proactive des incidents Assurer la cohérence entre les métriques Prometheus/Grafana et l’observabilité Datadog 3. Accompagnement des équipes et adoption Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir la documentation des standards et bonnes pratiques Profil recherché Expérience significative sur Datadog (Logs, APM, RUM, Monitors) Bonne compréhension des pratiques DevOps / SRE / Observabilité Expérience sur les outils de monitoring tels que Prometheus et Grafana Capacité à travailler en transverse avec des équipes Dev, Ops et Produit Sens de la pédagogie et capacité à structurer des standards Environnement technique Datadog – Observabilité – Monitoring – APM – Logs – RUM – Product Analytics – Prometheus – Grafana – DevOps – SRE – Cloud AWS +++ Kubernetes ++ Terraform +++
Offre d'emploi
AMOA DATA
AVALIANCE
Publiée le
AMOA
40k-60k €
Paris, France
Voici les principaux axes liés à la transformation numérique et aux grands projets de transformations IT : • Digitalisation des parcours clients • Évolution du système d’information • Intégration de l’intelligence artificielle • Refonte de l’environnement digital • Objectifs financiers et opérationnels. Les projets s’inscrivent dans une architecture DataPlatform structurée en quatre couches : • Sources de données : SI internes(PICRIS, ALTO ESR, NEC, ECO, Salesforce, IzyDSN…), flux provenant de SI externes (délégataires,, SNGI-CNAV, INSEE…), saisies manuelles
Mission freelance
Engineering Manager Data
HAYS France
Publiée le
Snowflake
6 mois
Nouvelle-Aquitaine, France
Notre client dans le secteur Santé recherche un/une Engineering Manager Data H/F Description de la mission: Dans le cadre de la modernisation de sa plateforme Data, le client lance un programme stratégique de migration de son Data Warehouse vers Snowflake. Ce programme s’inscrit dans une transformation globale visant à migrer des environnements legacy vers une architecture cloud scalable, améliorer la qualité, la gouvernance et l’accessibilité des données, et accélérer les usages métiers en BI, analytics et data science. L’environnement est international avec de forts enjeux de coordination entre équipes IT et métiers. Objectifs de la mission En tant qu’Engineering Manager Data, la mission consiste à assurer le pilotage technique et opérationnel de la migration vers Snowflake ainsi que le management des équipes Data. Missions principales • Cadrage et pilotage de la migration vers Snowflake • Définition de l’architecture Data cible • Management et structuration d’une équipe de Data Engineers • Mise en place des bonnes pratiques en qualité, monitoring, CI/CD et gouvernance • Accompagnement des équipes métiers dans l’adoption de la plateforme • Suivi des performances, des délais et des risques projet Profil recherché • Expérience confirmée en tant qu’Engineering Manager ou Lead Data Engineer • Expérience avérée de migration vers Snowflake, fortement souhaitée • Solide background technique en Data Engineering • Expérience en management d’équipe, avec une expérience onshore / offshore appréciée • Capacité à évoluer dans des environnements complexes et internationaux • Bon relationnel et capacité à interagir avec des interlocuteurs métiers Livrables attendus • Roadmap de migration et architecture cible • Suivi des sprints et des livraisons • Documentation technique et bonnes pratiques • Reporting projet : avancement, risques, KPI • Structuration et montée en compétence de l’équipe Compétences / Qualités indispensables : Snowflake, Data Engineering, Management d'équipe Data, Architecture Data, SQL et Python, Airflow / DBT Informations concernant le télétravail : 2 jours par semaine de télétravail Bureaux à Bordeaux
Offre d'emploi
Data manager sur Tours
EterniTech
Publiée le
3DEXPERIENCE (3DX)
3 mois
Tours, Centre-Val de Loire
je cherche pour un de mes clients un Data manager sur Tours Poste : Data Manager Nombre de poste : 1 Expérience : 5 ans Localisation : TOURS - 8 Rue de Boutteville (2jours de TTV par semaine) Démarrage : ASAP Le TITULAIRE s’engage à ce que ses intervenants aient, dès le début de la prestation, les connaissances suffisantes : o dans le domaine du nucléaire (en particulier dans les domaines de l’installation générale, du fonctionnement, du génie civil et de la sûreté), o sur 3DX ou a minima un PLM équivalent. data management - impératif connaissance de l’outil 3DX - impératif Connaissance de 3DX Connaissance des outils E3D et ALLPLAN ou appétence pour montée en compétence rapide sur ces outils
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2466 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois