L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 52 résultats.
Offre d'emploi
Architecte d’Entreprise (H/F)
Link Consulting
Publiée le
Cloud
Kubernetes
90k-110k €
Toulouse, Occitanie
Dans le cadre d’une création de poste stratégique, nous recherchons un Architecte d’Entreprise (H/F) pour concevoir et piloter la trajectoire globale de son Système d’Information. Vos missions : Rattaché(e) à la Direction IT, vous agissez en véritable partenaire des métiers pour structurer un SI agile et pérenne : * Définir les standards, les principes directeurs et les modèles de gouvernance de l’architecture (processus, méthodes, outils). * Cartographier l’existant, identifier les redondances et dessiner la cible fonctionnelle et applicative pour soutenir la croissance du groupe. * Traduire les enjeux business de l’aéronautique (continuité numérique, supply chain, conformité) en schémas directeurs SI cohérents. * Piloter l’évolution du socle technique en intégrant avec pertinence les nouveaux paradigmes (Cloud, architectures distribuées, valorisation de la donnée). * Accompagner les directions métiers dans leurs choix de solutions et garantir leur intégration dans le paysage global. Compétences requises: * Vous savez adapter les méthodologies (type TOGAF ou équivalent) à la réalité d'un terrain en construction. * Vous comprenez les enjeux d'intégration, de flux de données et les cycles de vie applicatifs. * Vous avez une bonne compréhension des architectures modernes (Cloud-ready, Data-driven) sans en être le spécialiste technique. * Vous savez convaincre et fédérer des interlocuteurs variés (du Comex aux équipes opérationnelles) autour d'une vision commune.
Offre d'emploi
Développeur Python / DevSecOps
MSI Experts
Publiée le
DevSecOps
Linux
Python
1 an
Saint-Denis, Île-de-France
Nous recherchons un(e) Développeur DevSecOps disposant de solides compétences en Python pour rejoindre une équipe IT dédiée à des projets métiers à fort enjeu. Vous interviendrez au sein d’une équipe technique en collaboration étroite avec un référent technique, sur des sujets mêlant automatisation, sécurité et valorisation des données. Vos missions Au cœur des activités de développement et d’exploitation, vous serez amené(e) à : Mettre en place et améliorer les pratiques DevSecOps sur plusieurs applications Automatiser les processus liés au développement, aux tests, aux déploiements et à la maintenance Identifier, analyser et corriger les vulnérabilités de sécurité Suivre et optimiser les performances des applications Participer à la conteneurisation des environnements (type Docker / Kubernetes) En parallèle, grâce à votre expertise en Python, vous contribuerez à des projets orientés data et outils métiers : Développer des scripts de traitement et d’analyse de données Concevoir des reportings à destination des équipes métiers Alimenter et structurer les bases de données internes Développer des interfaces simples pour faciliter l’exploitation des données Assurer la maintenance et l’évolution des outils existants Accompagner les équipes dans la création de tableaux de bord (type BI) Participer à des travaux de modélisation et de prévision Une montée en compétences progressive est prévue afin de vous permettre de gagner en autonomie et de devenir un appui fiable sur les sujets techniques clés.
Offre d'emploi
Data Analyst Senior H/F
SMARTPOINT
Publiée le
Git
PySpark
Python
12 mois
50k-60k €
400-500 €
Nantes, Pays de la Loire
Analyse et compréhension des besoins Comprendre et modéliser les problématiques métiers et celles du pôle. Définir le périmètre des données nécessaires à la mise en œuvre des solutions analytiques. Élaborer un plan d’analyse des données adapté aux besoins métiers. Data science et modélisation Concevoir et développer des modèles de machine learning . Mettre en œuvre des techniques statistiques et de data mining . Optimiser les modèles de données des projets data. Développer et maintenir des scripts Python optimisés . Exploitation et valorisation des données Analyser les données et interpréter les résultats pour les métiers . Conceptualiser des solutions autour de problématiques opérationnelles. Formaliser les résultats d’analyse et les présenter aux équipes métiers. Mettre en évidence la valeur des actions proposées. Visualisation et restitution Concevoir des visualisations de données adaptées aux besoins métiers . Produire éventuellement des visualisations cartographiques . Rendre les résultats lisibles, exploitables et actionnables. Collaboration et industrialisation Créer les tables et vues nécessaires aux projets data . Collaborer avec les équipes Data Ops pour l’industrialisation : collecte de données traitements supervision restitution Estimer la charge des traitements techniques et des développements. Recommandations et amélioration Être force de proposition sur les actions à mettre en œuvre. Formuler des préconisations opérationnelles basées sur les analyses.
Mission freelance
Data Engineer (H/F)
Trust IT
Publiée le
Bash
Cloudera
DevOps
1 an
450-510 €
Charenton-le-Pont, Île-de-France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un Data Engineer (H/F) Contexte : Des tâches quotidiennes liées au maintien de la production en condition opérationnelle. Vos interlocuteurs privilégiés seront les équipes de production applicative, les équipes infrastructures, les plateformes internationales, mais également les équipes métiers pour lesquelles vous apporterez votre support et votre expertise technique. Missions : Conception et mise en œuvre de l'ingestion et du stockage de données : Identifier et formaliser les besoins des métiers en matière de collecte et de stockage de données. Développer des solutions d'acquisition de données via API. Concevoir et implémenter des architectures de stockage de données robustes (Ex: Ozone, Hadoop, Druid, Clickhouse…). Valider la qualité des développements par des tests unitaires et d'intégration. Automatiser les traitements de données via la mise en place et la maintenance de batch. Valorisation et sécurisation des données : Industrialiser les processus de nettoyage et de transformation des données. Gérer et documenter des bases de données hétérogènes, en intégrant diverses sources de données. Veiller à la conformité RGPD dans la gestion du cycle de vie des données. Superviser l'exploitation et assurer la maintenance corrective et évolutive des systèmes de données. Intégration et suivi des modèles prédictifs : Industrialiser le déploiement de modèles statistiques et de machine learning. Mettre en place des dispositifs de validation et de monitoring des modèles. Assurer le suivi opérationnel et la maintenance des modèles intégrés aux applications. Contribution au pilotage projet : Définir les spécifications techniques précises en appui de l'analyse des besoins. Environnement technique : Les composants basés sur le logiciel de l’éditeur Cloudera CDP 7.1 :Hbase, Hive, Kafka, Solr, Knox, Spark,Ranger, Zookeeper, Kerberos LDAP... •Être force de proposition sur les évolutions techniques du périmètre Data avec la nouvelle offre containérisée : Cloudera Data Services (Infra Openshift K8s) •Contribuer à l'élaboration et à l'exécution des stratégies de migration des clusters Hadoop Cloudera. •Aisance avec l’écosystème Apache (Outils OpenSource),Build (Java, Maven, Gradle...), Automatisation avec Ansible •Connaissance Trino/Starburst, AirFlow, Flink •Participer à la résolution de problèmes complexes sur les plateformes Data (Capacité d’analysedes incidents applicatif de type Hive, Yarn, Spark...) •Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge. •Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation .Couverture horaire de l’équipe : 8h/19h
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
52 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois