L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 877 résultats.
Mission freelance
Ingénieur Fullstack - IA
CONCRETIO SERVICES
Publiée le
Agent IA
Angular
MLOps
12 mois
350-460 €
Île-de-France, France
Notre client, acteur majeur de son secteur, renforce ses équipes engineering dans le cadre du développement et de la maintenance de systèmes distribués à haute performance et haute résilience . Les solutions développées opèrent dans des environnements critiques où performance et faibles temps de réponse sont des exigences non négociables. L'intégration de technologies IA/ML, LLM et agents IA constitue un axe stratégique fort de ce programme. Activités principales Développer et maintenir des logiciels pour des systèmes distribués à fortes contraintes de performance Collaborer au sein d'une équipe pluridisciplinaire dans une logique de livraison fréquente (approche Agile) Garantir les plus hauts standards de qualité et de fiabilité du code : tests unitaires, tests d'intégration, non-régression Contribuer à l'intégration de solutions IA/ML, agents IA et LLM pour la co-construction de produits innovants (serveur MCP, agents de code type Cursor, etc.) Stack technique Front-end : Angular Back-end : Java et/ou Golang, C++ Domaine : Systèmes distribués, IA/ML, LLM, agents IA
Mission freelance
Data Engineer Nantes /st
WorldWide People
Publiée le
Python
12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Mission freelance
Expert fonctionnel de la solution CSM Pro de l'éditeur ServiceNow
CAT-AMANIA
Publiée le
CRM
ServiceNow
1 an
720-900 €
Paris, France
Je suis à la recherche pour un de nos clients d'un Expert fonctionnel de la solution CSM Pro de l'éditeur ServiceNow. Le projet consiste à remplacer la solution CRM actuelle (PEGA) par la solution progicielle CSM PRO (SERVICENOW) tout en donnant une priorité forte à l’utilisation des fonctionnalités standards de la solution retenue, via des mécanismes de paramétrage, dans une logique de simplicité, de maintenabilité et d’évolutivité. Le Client est le Maître d’Œuvre Intégrateur des solutions CRM, FAQ, Chatbot et Marketing dans leur écosystème et souhaite recourir à une ressource pour garantir l’atteinte des résultats dans les délais impartis à savoir : Pour les solutions CRM, FAQ/Chatbot : un Pilote positionné en T4-2026 respectivement pour les périmètres Entreprise et Individu, puis un déploiement généralisé pour l’ensemble de nos utilisateurs (Entreprise et Individu) à fin juin 2027. La solution Marketing pourrait faire l'objet d'un cadrage courant S2-2027 et être déployée au plus tard fin 2028 sur les périmètres Individu et Entreprise. A la fin du projet, le Client devra avoir mis en place un véritable Centre de Compétence composé, pour l’essentiel, de collaborateurs du Client. Ce profil devra être expert de la solution avec un minimum de 5 à 7 d’expérience (idéalement de la version actuelle « Zurich » ou version récente précédente sorties dans un délai de 2 à 3 ans) Avoir au moins une expérience d’intégration du CSM PRO Service Now dans une organisation similaire avec un grands nombres d’utilisateurs (au moins 7 000) dans l’idéal dans le secteur des assurances et ou mutuelles complémentaires. Ce projet d’intégration se déroulera comme suit : Intégration des solutions CRM, FAQ, Chatbot et Marketing dans l’écosystème. Pour les solutions CRM, FAQ/Chatbot : un Pilote positionné en T4-2026 respectivement pour l’ensemble des périmètres métiers, puis un déploiement généralisé pour l’ensemble des utilisateurs 13 000 à fin juin 2027. La solution Marketing pourrait faire l'objet d'un cadrage courant S2-2027 et être déployée au plus tard fin 2028 sur tous les périmètres métier. En phase build (qui se fera conjointement avec l'éditeur) de : - Préparer, organiser et participer aux ateliers de conception sur les processus, les fondations de la plateforme et des interfaces - Corédiger et valider les User Stories (livrables des ateliers de conception) - Définir, hiérarchiser la backlog du produit à livrer - Gérer les cycles Agiles - Participer à la configuration des différents types de sollicitations reçues de la part des clients qui constituent les processus métiers à paramétrer dans le CRM. - Paramétrer le CRM (parcours clients, fiches clients, distribution, routages, flux entrant/sortants) en respectant la solution native et le standard de la solution - Configurer FAQ/Chatbot à partir de référentiels de connaissance à construire - Configurer la solution Marketing - Former et transférer les compétences sur le paramétrage fonctionnel en vue de l'autonomie du Centre de Compétence - Participer aux cérémonies agiles du projet
Mission freelance
MOA ALM / Trésorerie CIB
ABSIS CONSEIL
Publiée le
ALM
SQL
Trésorerie
1 an
500-550 €
Île-de-France, France
Dans un contexte de marché exigeant, une équipe IT spécialisée ALM / Trésorerie renforce ses effectifs afin d’accompagner le pilotage du risque de taux et de liquidité, activité stratégique et à forte criticité. Vos missions Intégré(e) à une équipe Front‑Office Tools, vous interviendrez sur des applications ALM critiques. À ce titre, vous serez chargé(e) de : L’analyse et le suivi des évolutions fonctionnelles et techniques, avec un fort enjeu de qualité et de conformité. La gestion des incidents majeurs (niveau 3), en coordination avec les équipes concernées. Environnement technique Environnement Technique Base de données : Oracle Applications web : Java J2EE Reporting : Business Objects / SQL (maîtrise requise – requêtes complexes)
Mission freelance
Data Engineer Nantes/pa
WorldWide People
Publiée le
Scripting
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Mission freelance
Testeur auto Boulogne et Vitrolles/la
WorldWide People
Publiée le
Automatisation
6 mois
400-430 €
Vitrolles, Provence-Alpes-Côte d'Azur
Testeur auto Boulogne et Vitrolles ASAP besoin avec une nécessité de présence sur site à Boulogne sur des technologies de test rares et où l'expertise est indispensable pour accompagner une transformation de tout l'outillage de test • Concevoir et développer des tests automatisés (API & UI) ; rédiger des scenarios de tests • Maintenir et faire évoluer le framework de test • Intégrer les tests dans la chaîne CI/CD (Git, Maven, Kubernetes) • Exécuter les tests manuels et automatiques et analyser les résultats • Gérer et maintenir le référentiel de tests (Jira / Xray) • Améliorer la qualité du code de test (audit, refactorisation, bonnes pratiques) • Collaborer avec les équipes de développement et d’intégration Profil • Expériences solides en tant qu’ingénieur de Test et Validation dans le delivery de solutions applicatives. • Une expérience en environnement Agile SCRUM est fortement recherchée. • Automatisation des tests mais capacité de réalisation des campagnes manuelles et des tests exploratoires. • Maitrise de la programmation orientée objet et expériences en Java et HTML. Des compétences en shell et scripting (Unix/Linux) seraient un plus. • Connaissances des principes et pratiques des tests automatisés frontend. La connaissance de Selenium WebDriver (ou framework équivalent), de RestAssured (pour les tests d’API) ou d’outils tels que XRay (intégration JIRA) serait un plus. • Anglais lu/écrit.
Mission freelance
Data Engineer (H/F)
Trust IT
Publiée le
Bash
Cloudera
DevOps
1 an
450-510 €
Charenton-le-Pont, Île-de-France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un Data Engineer (H/F) Contexte : Des tâches quotidiennes liées au maintien de la production en condition opérationnelle. Vos interlocuteurs privilégiés seront les équipes de production applicative, les équipes infrastructures, les plateformes internationales, mais également les équipes métiers pour lesquelles vous apporterez votre support et votre expertise technique. Missions : Conception et mise en œuvre de l'ingestion et du stockage de données : Identifier et formaliser les besoins des métiers en matière de collecte et de stockage de données. Développer des solutions d'acquisition de données via API. Concevoir et implémenter des architectures de stockage de données robustes (Ex: Ozone, Hadoop, Druid, Clickhouse…). Valider la qualité des développements par des tests unitaires et d'intégration. Automatiser les traitements de données via la mise en place et la maintenance de batch. Valorisation et sécurisation des données : Industrialiser les processus de nettoyage et de transformation des données. Gérer et documenter des bases de données hétérogènes, en intégrant diverses sources de données. Veiller à la conformité RGPD dans la gestion du cycle de vie des données. Superviser l'exploitation et assurer la maintenance corrective et évolutive des systèmes de données. Intégration et suivi des modèles prédictifs : Industrialiser le déploiement de modèles statistiques et de machine learning. Mettre en place des dispositifs de validation et de monitoring des modèles. Assurer le suivi opérationnel et la maintenance des modèles intégrés aux applications. Contribution au pilotage projet : Définir les spécifications techniques précises en appui de l'analyse des besoins. Environnement technique : Les composants basés sur le logiciel de l’éditeur Cloudera CDP 7.1 :Hbase, Hive, Kafka, Solr, Knox, Spark,Ranger, Zookeeper, Kerberos LDAP... •Être force de proposition sur les évolutions techniques du périmètre Data avec la nouvelle offre containérisée : Cloudera Data Services (Infra Openshift K8s) •Contribuer à l'élaboration et à l'exécution des stratégies de migration des clusters Hadoop Cloudera. •Aisance avec l’écosystème Apache (Outils OpenSource),Build (Java, Maven, Gradle...), Automatisation avec Ansible •Connaissance Trino/Starburst, AirFlow, Flink •Participer à la résolution de problèmes complexes sur les plateformes Data (Capacité d’analysedes incidents applicatif de type Hive, Yarn, Spark...) •Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge. •Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation .Couverture horaire de l’équipe : 8h/19h
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- +229 57193023 Spécialiste du retour affectif de l'être aimé
- +229 57193023 Envoutement d'amour puissant par magie noir
- +229 57193023 Retour affectif rapide pratique magie rouge
- +229 57193023 Rituel d'affection puissant et resolution de conflits
- +229 57193023 Vrai rituel pour séparer deux personnes radical
- +229 57193023 Rituel puissant pour briser un couple
1877 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois