Llamada Azure Cognitivo Cara con Android, pero el retorno de error con 400 InvalidImage error de Decodificación, formato de imagen no compatible
En este enlace de Github como base de código.
https://github.com/googlesamples/android-vision/tree/master/visionSamples/FaceTracker
Quiero implementar cuando la cara se detectó, llame a .takePicture()
para enviar el ByteArray
de datos para el Azure Cognitivo Rostro de servicio con la api de REST.
En los onPictureTaken()
de devolución de llamada, tengo que hacer algún proceso en el ByteArray
de datos para que sea adecuada con el requisito de servicio.
// make raw data decoded to Bitmap object
BitmapFactory.decodeByteArray(...)
// scale image into specific size of service requirement
Bitmap.createScaledBitmap(...)
// compress data into JPEG or PNG format
decodedBitMap.compress(Bitmap.CompressFormat.JPEG, 100, byteArrayOutpuStream)
// Then call REST service with Retrofit2 library
Lo que está oculto detrás de mapa de bits o Retrofit2 o Azure Cognitivo Cara api de REST algoritmo que yo no podría saber para hacer que el servicio de llamadas de éxito?
Porque con el mismo servicio REST, puedo implementar con otro lenguaje de programación como Python, Java (con Resorte de Arranque), Javascript, pero con Android (Kotlin) es la excepción?
Cualquier ayuda sería de apreciar, traté de Google, pero sólo con código obsoleto clases/biblioteca relacionadas o no con mi propósito de respuesta fueron aparecen.
Vea otras preguntas sobre etiquetas android retrofit2 azure-cognitive-services face-api