Deepseek peut être installé sur un PC ou un Mac localement afin que toutes les requêtes faites restent dans la machine. C’est une autre des expériences qui a laissé le monde sans voix en ne demandant pas autant de ressources et en apportant la capacité de GPT-4O dans un modèle «distillé» qui offre une grande flexibilité dans son utilisation. Vous pouvez aussi mobile comme Samsung Galaxy S24 Ultra lui-même.
Comme c’est le cas lorsque Deepseek est installé sur un PC ou un Mac, selon le modèle linguistique principal utilisé, son efficacité sera plus ou moins, non seulement dans les réponses que vous pouvez donner aux consultations, mais dans la vitesse de la vitesse de les développer.
Il existe un autre point important dans les modèles Depseek qui peuvent être chargés sur un mobile élevé, et c’est que Versions optimisées de Deepseek R1 Ils ont pour objectif d’être installés dans des machines avec moins de ressources.
Et mieux le PC ou le mobile, il offrira une meilleure expérience, vous devez donc essayer de choisir le modèle qui sera bien installé, car si cela ne se fait pas correctement, la vitesse de vos réponses peut être considérablement réduite ainsi que votre précision.
Les tests effectués par les Espagnols – l’Android gratuit passe presque davantage par une expérience, puisque le modèle qui a pu offrir des réponses plus précises a Besoin de plus de temps pour les traiter (Comme avec Depseek-R1-Distill-QWEN-14B-IQ2_M) et étant Deepseek R1, il montrera dans le texte toute la logique de chacune de ses «pensées profondes» pour donner la réponse finale.
Demander la recette de Torrijas à Depseek dans un Samsung Galaxy S24 Ultra El Android
C’est vraiment un Échantillon de l’efficacité de ce modèle de langue majeure Cela rivalise avec GPT-4O et peut être installé sur un mobile Android. Quelque chose de pratiquement impensable il y a des jours et qui est déjà disponible entre nos mains, bien que d’une manière limitée.
Le référentiel de code Deepseek de ses différents modèles est disponible à partir de Visage étreintune plate-forme qui devient l’un des nœuds pour partager des outils, des modèles et des ensembles de données liés à l’intelligence artificielle générative.
Exigences nécessaires
Les compilations que nous utiliserons ont été publiées il y a quelques jours à peine Comme cela s’est produit avec Deepseek R1, qui est également disponible à partir de ce référentiel, bien qu’il ait besoin d’un grand nombre de ressources qui peuvent offrir un PC, même si c’est le meilleur jeu.
Le depeeek-r1-distill-qwen-14b-iq2_m Il avait besoin de 724 ms par jeton avec 1,38 jetons par seconde pour donner tous les détails sur la façon de faire une recette de toast et avec certains mots incorrects. C’est lent, mais il s’agit également d’essayer d’autres sous-modèles pour accélérer la réponse et vérifier que leurs réponses sont plus ou moins précises.
Le mobile de Samsung est l’un des meilleurs mobiles actuels pour ses spécifications et certaines exigences sont recommandées pour exécuter certains des modèles de Depseek R1 qui peuvent être téléchargés à partir de la face de câlins:
Comment installer Depseek sur un mobile
Pour installer Depseek sur le mobile L’installation de PocketPal AI, une application open source qui facilite toutes les étapes pour télécharger un modèle de langage plus grand, puis la charger pour fonctionner avec le chatbot, sera nécessaire.
Il est téléchargé De Google Play Store En Android et est également disponible pour iOS sur l’iPhone De l’App Store. Une fois l’application ouverte, il vous suffit de cliquer sur le bouton « Allez dans les modèles », puis touchez « + » et choisissez « Ajouter à partir de la face étreinte ».
Les sous-modéliques Depeeek R1 l’android gratuit
Ici, le référentiel complet de cette plate-forme apparaîtradonc le moteur de recherche doit être utilisé pour taper « Depseek ». Parmi l’ensemble de la liste des résultats, il est recommandé d’utiliser un modèle plus large tel que 8b, car 1,5b ou 7b sont plus rapides, mais plus imprécis dans leurs réponses.
Chaque modèle a alors ses sous-modèles qui varient en capacité et en taille de fichier à télécharger. Plus les ressources sont grandes, plus les ressources, donc selon le mobile, nous devrons prouver l’un ou l’autre, nous utiliserons Deepseek-R1-Distill-Qwen-7B-Q3_K_L avec 4,09 Go et 7,62b de paramètres.
Le modèle à installer et le réglage à effectuer par l’android gratuit
Nous téléchargeons le sous-modèle et à la fin, nous allons à la section « modèles » Dans le menu principal. Il est enfoncé sur « Paramètres » dans le modèle téléchargé et sur l’écran suivant, vous devez configurer « N Prédire » avec des jetons 4096 pour générer correctement du texte.
Il revient à l’écran précédent et est joué dans « Load » Pour démarrer le modèle sélectionné et afin que vous puissiez passer à une fenêtre de conversation dans laquelle vous pouvez consulter, voir les réponses et même commencer une autre conversation avec l’IA.
Deepseek retournera les réponses par « pensée profonde » en le marquant comme « pensant … ». Lorsque vous terminez, il donnera la réponse pour continuer avec la conversation. Nous nous souvenons à nouveau qu’une fois la session terminée, il est recommandé de télécharger avec « déchargement » sur le modèle de l’écran précédent.